Istraživači prevarili Teslin autopilot

Utjecaj na sustav autonomnih vozila uz pomoć promjena u okruženju nije ništa novo te je dokazano da promjene izazivaju različite probleme…
Istraživači za sigurnost autonomnih vozila napravili su jedan eksperiment koji dokazuje kako bi Teslin autopilot mogao u određenim situacijama skrenuti u pogrešnu traku, točnije, krenuti u susret prema nadolazećim vozilima te izazvati nesreću.Ranjivost sustava nije dokazana ako je sustav hakiran, već kako sam sustav može prevariti lažnim promjenama u okviru trake kojom se vozilo kreće. Sustav se koristi kamerama, raznim senzorima, radarima, prikupljanjem informacija u okruženju, preprekama, terenu i sl. Tako da sustav prikuplja sve informacije te ih šalje u računalo koje na osnovu njih donosi odluke u realnom vremenskom intervalu. Tako su sigurnosni stručnjaci sproveli eksperiment koji je prevario autopilota koristeći lažne naljepnice koje su se postavile uz put kojim se vozilo kretalo. Vozač te naljepnice nije mogao vidjeti, dok algoritamski sustav to doživio kao informaciju prometnog traka kojim se skreće u lijevo, te se vozilo samo prestrojilo u tu traku i to u susret vozilima iz suprotnog smjera. Problem se javio u ranjivosti sustava u okviru ‘detect and track’ opcije kojom se detektira prometni trak. Tako da sam sustav ažurira postojeću mapu iz koje se šalju informacije prema upravljaču.

Autor

Provjeri cijenu police auto osiguranja na današnji dan!

Preporučeni sadržaj