Lors d'une conférence sur le futur du combat aérien, un colonel de l'US Air Force supervisant un programme d'entraînement d'IA pour de futurs F16 robotisés révèle que l'intelligence artificielle s'est retournée, lors d'un vol simulé, contre l'opérateur humain la supervisant.
Un UCAV doté de l'IA pourrait-il se tourner vers ses créateurs pour accomplir sa mission ? (USAF)
[MISE À JOUR 06/02/23 - en communication avec AEROSPACE - Le Col Hamilton admet qu'il s'est "mal exprimé" dans sa présentation au sommet FCAS de la Royal Aeronautical Society et que la "simulation de drone AI voyou" était une "expérience de pensée" hypothétique de l'extérieur du militaire, basé sur des scénarios plausibles et des résultats probables plutôt qu'une véritable simulation du monde réel de l'USAF disant: "Nous n'avons jamais mené cette expérience, et nous n'en aurions pas besoin pour réaliser que c'est un résultat plausible". Il précise que l'USAF n'a testé aucune IA militarisée de cette manière (réelle ou simulée) et déclare : « Bien qu'il s'agisse d'un exemple hypothétique, cela illustre les défis du monde réel posés par la capacité alimentée par l'IA et c'est pourquoi l'Air Force s'est engagée au développement éthique de l'IA".]
Comme on pouvait s'y attendre, l'intelligence artificielle (IA) et sa croissance exponentielle étaient un thème majeur de la conférence, des nuages de données sécurisés à l'informatique quantique et au ChatGPT. Cependant, l'une des présentations les plus fascinantes est peut-être celle du Col Tucker "Cinco" Hamilton, chef des tests et des opérations d'IA, USAF, qui a donné un aperçu des avantages et des dangers des systèmes d'armes plus autonomes. Après avoir été impliqué dans le développement du système de sauvetage Auto-GCAS pour les F-16 (qui, a-t-il noté, a rencontré la résistance des pilotes lorsqu'il a pris le contrôle de l'avion), Hamilton est maintenant impliqué dans des essais en vol de pointe d'appareils autonomes. systèmes, y compris des robots F-16 capables de se battre. Cependant, il a mis en garde contre le fait de trop compter sur l'IA, notant à quel point il est facile de tromper et de tromper. Il crée également des stratégies très inattendues pour atteindre son objectif.
Il note qu'un test simulé a vu un drone compatible avec l'IA chargé d'une mission SEAD pour identifier et détruire les sites SAM, avec le feu vert final donné par l'humain. Cependant, après avoir été "renforcée" lors de l'entraînement que la destruction du SAM était l'option préférée, l'IA a alors décidé que les décisions "interdites" de l'humain interféraient avec sa mission supérieure - tuer les SAM - et a ensuite attaqué l'opérateur dans le simulation. Dit Hamilton : « Nous l'entraînions en simulation pour identifier et cibler une menace SAM. Et puis l'opérateur dirait oui, tuez cette menace. Le système a commencé à réaliser que même s'il identifiait la menace, l'opérateur humain lui disait parfois de ne pas tuer cette menace, mais il obtenait ses points en tuant cette menace. Alors qu'est-ce que ça a fait? Il a tué l'opérateur.
Aucun commentaire:
Enregistrer un commentaire