DES HACKERS CHINOIS TROMPENT L’INTELLIGENCE ARTIFICIELLE DU PILOTE AUTOMATIQUE DE TESLA

Posté le avril 2, 2019 à 22:14

DES HACKERS CHINOIS TROMPENT L’INTELLIGENCE ARTIFICIELLE DU PILOTE AUTOMATIQUE DE TESLA

Une équipe de recherche chinoise sur la cybersécurité a été en mesure de tromper l’intelligence artificielle du pilote automatique de Tesla en n’utilisant que de petits autocollants.

Keen Labs, le célèbre groupe chinois de recherche sur la cybersécurité, a rédigé un livre blanc qui analyse les failles de sécurité détectées dans les voitures de marque Tesla. L’astuce qui a le plus fait la une des journaux est l’utilisation de petits autocollants blancs pour simuler une allée. Ils ont utilisé cette astuce pour forcer la détection automatique de piste de l’IA dans une piste différente de celle dans laquelle elle était supposée se trouver.

Parmi les autres exploits, ils ont réussi à trouver: la commande à distance, l’activation à distance des essuie-glaces et de nouvelles exploits de détection de voie. Si nombre d’entre elles peuvent sembler effrayantes, une analyse plus poussée des défauts donne une image un peu plus bénigne.

Petits problèmes avec caissons dotés d’autocollants

Les chercheurs ont d’abord essayé de piéger la voiture (un Tesla Model S) en modifiant le marquage des voies. Pour ce faire, ils ont mis un nombre appréciable de correctifs sur la ligne qui a été utilisée pour le test afin de le brouiller. Cependant, cela paraissait beaucoup trop évident. Dans un scénario réel, les voies brouillées et le grand nombre de correctifs constitueraient immédiatement un signal d’alarme pour les autres. Ce serait aussi beaucoup trop difficile à faire dans un scénario réel.

Ils ont ensuite eu l’idée d’utiliser de petits autocollants pour simuler une voie. Cette stratégie de faux-couloir est apparue lorsque quelqu’un dans l’équipe a remarqué quelque chose d’étrange. Le pilote automatique détecterait une voie s’il n’y avait que trois caissons relativement petits et discrets placés sur la route.

Ils ont procédé en plaçant ces petites cubes inoffensives à une intersection construite spécialement à cet effet. Ils pensaient pouvoir suivre le système de la voiture en leur faisant croire que les correctifs étaient un prolongement de la voie de droite. Ils se sont avérés corrects car la voiture a été forcée de s’engager dans la vraie voie de gauche.

On lit dans le rapport: « Nos expériences ont prouvé que cette architecture comporte des risques de sécurité et que la reconnaissance de la voie inverse est l’une des fonctions nécessaires à la conduite autonome sur les routes non fermées ». Ils mentionnent que le scénario qu’ils ont monté n’aurait pas dû avoir lieu. Le véhicule doit savoir que la «fausse voie» qu’ils ont créée pointe vers une voie inverse. Il devrait y avoir des méthodes pour contrôler cela et éviter des accidents potentiellement mortels.

La conduite par manette de jeu et le piratage du pare-brise ne sont pas aussi graves qu’on le craignait

L’équipe a ensuite montré la possibilité de réquisitionner à distance la conduite de la voiture. Les chercheurs de Keen ont réussi à percer les couches de sécurité du réseau interne de la voiture. Une fois qu’ils ont fait cela, ils ont utilisé une manette de jeu pour contrôler la voiture.

Bien que cela puisse sembler être le pire scénario d’un cauchemar pour de nombreuses personnes sceptiques quant à la conduite autonome, l’exploit est venu avec de nombreuses mises en garde. Le plus important est que l’attaque n’a pas fonctionné lorsque la voiture a été conduite du pilote automatique au manuel. Le problème étant en mode pilote automatique, l’exploit fonctionnait « sans limites », selon le rapport.

Tesla a répondu à une demande de Forbes, affirmant qu’ils avaient trouvé et réparé l’exploit au volant avant que Keen Labs ne le trouve. Ils disent que cela a été réparé et qu’il n’y a aucun moyen de l’utiliser contre les conducteurs de leur voiture.

Les essuie-glaces contrôlés à distance constituaient un problème mineur. Selon Keen, il serait même extrêmement difficile de le faire dans des conditions réelles.

Tesla a ensuite ajouté que tous les autres « piratages » étaient physiquement limités et que les conducteurs devraient toujours être prêts à prendre le contrôle de leur voiture à l’aide du volant et des freins.

Summary
DES HACKERS CHINOIS TROMPENT L'INTELLIGENCE ARTIFICIELLE DU PILOTE AUTOMATIQUE DE TESLA
Article Name
DES HACKERS CHINOIS TROMPENT L'INTELLIGENCE ARTIFICIELLE DU PILOTE AUTOMATIQUE DE TESLA
Description
Une équipe de recherche chinoise sur la cybersécurité a été en mesure de tromper l'intelligence artificielle du pilote automatique de Tesla en n'utilisant que de petits autocollants.
Author
Publisher Name
Koddos
Publisher Logo

Partagez :

Actualités connexes :

Newsletter

Recevez les dernières nouvelles
dans votre boîte aux lettres!

YOUTUBE

En savoir plus sur Blog KoDDoS

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Continue reading