Компаниите, които разработват автономни автомобили държат на аргумента, че това е бъдещето за по-сигурни пътища. По време на конференцията Def Con в Лас Вегас, хакери показаха метод как може да се компрометира системата за автоматично управление на Tesla и да се накара вместо да заобикаля препятствията по пътя, колата да ги удря, съобщава онлайн изданието Business Insider.
Специалистите уточняват, че са тествали само поведението на сензорите при спрял автомобил. Те са открили начин как да ги блокират, което обаче да не води до грешка в системата. Така дори и да засекат препятствие, самата система не отчита сигнала от сензорите и не предприема маневра за спиране или заобикаляне.
При сегашната версия на хакерската така, която е само доказателство, че това е възможно, а не цялостно разработен метод, е необходимо хакерът да е сравнително близо до автомобила. Методът показва, че теоретично е възможно да бъдат блокирани сензорите на движещ се автономен автомобил, в случая Tesla Model S и да бъде предизвикана катастрофа.
Освен това специалистите са открили, че могат и да заблуждават сензорите. Например да им казват, че обектът е по-близо или по-далеч отколкото е в действителност. Друг вариант е да бъде "заглушен" чрез свърхнатоварване с "шум" и др.
За сега специалистите не знаят дали колата реално би ударила препятствие или човек, ако сензорите ѝ са заблудени. Тестовете на софтуерно ниво показват, че точно това би се случило. Те са успели да накарат софтуера Autopilot на Tesla да не засече човек на пътя и също така са го заблудили, че пред колата има препятствие, при положение, че няма. Със същия метод са успели да объркат конкурентен софтуер на Audi, Volkswagen и Ford.
За сега Tesla не е коментирала темата официално. Според Чен Ян, един от откривателите на уязвимостта, компанията е реагирала положително и добронамерено, когато е била уведомена за проблема. Тя е започнала и работа по разработването на защити от подобни хакерски атаки.