Почему автопилоту все еще нельзя доверять (видео)

Сработает он в двух абсолютно идентичных ситуациях, следующих одна за другой? 50 на 50!

Не так давно в западной прессе можно было встретить сообщения о том, что автопилот автомобилей Tesla не видит припаркованные на обочинах автомобили, из-за чего происходят аварии - в частности, что особенно обидно, с каретами скорой помощи. Последнее обновление системы Tesla FSD (Full Self-Driving) должно было решить эту проблему. Отметим, что система до сих пор существует в виде бета-версий, и новейшая - уже десятая.

Отладка системы проводится бета-тестерами из числа добровольцев, проходящих строгий отбор. Многие из них сообщают, что десятая версия Tesla FSD действительно долгое время может вести автомобиль абсолютно самостоятельно, пишет издание Inside EVs. Однако в некоторых «крайних случаях» проблемы все же могут возникнуть.

Крайними случаями считаются те, возникновению которых система еще не обучена. Как, например, в показанном видео: продвинутая система автопилота полностью игнорирует тот факт, что автомобиль вот-вот въедет в заднюю часть остановившегося на дороге автобуса. Водитель был вынужден взять управление на себя. Но сразу вслед за этим автопилот вполне справляется с объездом эвакуатора.

Таким образом, действия автопилота Теслы до сих пор нельзя считать логичными и последовательными.

Видео: Youtube / Dave Mac - DMacTech

Подпишитесь на «За рулем» в