Идея автономных машин подразумевает, что искины сделают процесс вождения безопаснее. Чем больше самоуправляемых автомобилей на дорогах, тем меньше риск человеческой ошибки. Но если такие автономные системы и сами способны ошибаться, это просто меняет одну рискованную ситуацию на другую. Исследователи из Tencent Keen Security Lab недавно опубликовали ряд недостатков таких систем на примере программного обеспечения автопилота Tesla.
Самый опасный вариант саботажа, оказался заодно и самым простым. Эксперты по безопасности перехитрили автопилот, помешав ему правильно распознавать дорожную разметку, и тем самым заставили машину Tesla выехать на встречную полосу. Они налепили на землю маленькие красные наклейки, убедив искина-водителя в том, что ему надо сменить полосу движения. Все это было проделано средь бела дня, так что тут даже не сошлешься на то, что дождь или снег помешали автопилоту «считывать» разметку.
Некоторые более сложные виды взлома, удавшиеся экспертам, больше похожи на то, что мы привыкли видеть в кино. Например, взломав несколько слоев защиты, эксперты создали приложение, позволяющее перехватить на себя управление автомобилем. С помощью этого приложения злоумышленник может управлять чужой машиной со своего смартфона или даже игрового контроллера. Машину, которая находилась в процессе переключения передач, взломать было сложнее, но перехватить автомобиль, стоящий на парковке или едущий в режиме круиз-контроля, проблем не составило.
Tencent Keen Security Lab предупредила компанию Tesla о найденных слабых местах, так что новейшее обновление систем безопасности должно залатать эти бреши в защите.