Tesla Autopilot та Full Self-Driving причетні до сотень аварій та десятків смертельних випадків – NHTSA

admin

[ad_1]

Розділ Технології виходить за підтримки Favbet Tech

Національна Адміністрація Безпеки Дорожнього Руху США (NHTSA) розслідувала 956 ДТП, учасниками яких стали електромобілі Tesla з функціями Autopilot та Full Self-Driving (FSD). При чому розслідування стосувалося лише інцидентів, які трапилися в проміжок часу з січня 2018 року й до серпня 2023 року. Загалом аварій було більше.

NHTSA розпочала розслідування після кількох інцидентів, коли автомобілі Tesla врізалися в нерухомі машини швидкої допомоги, припарковані на узбіччі дороги. Більшість цих інцидентів відбувалися з настанням темряви, коли ПЗ авто ігнорувало заходи застереження, включаючи попереджувальні вогні, проблискові маячки, конуси та світлові стрілки.

У цих ДТП (в деяких з них також брали участь інші транспортні засоби) загинули 29 людей. Було також 211 аварій, в яких «лобова площина Tesla врізалася в транспортний засіб або перешкоду на шляху». Ці аварії, які часто були найсерйознішими, призвели до 14 смертей і 49 травм.

У своєму розслідуванні агентство виявило, що Autopilot — і, в деяких випадках, FSD — не був розроблений, щоб підтримувати залучення водія. Tesla заявляє, що попереджає своїх клієнтів про те, що їм потрібно бути уважними під час використання Autopilot та FSD, тобто тримати руки на кермі та дивитися на дорогу. Але NHTSA каже, що в багатьох випадках водії стають надмірно самовдоволеними та втрачають увагу. А коли наставала необхідність реагувати, часто було вже надто пізно.

Агентство виявило, що у 59 ДТП у водіїв Tesla було достатньо часу, «5 або більше секунд», щоб відреагувати перш ніж врізатися в інший об’єкт. У 19 із цих аварій небезпека була видима протягом 10 або більше секунд до зіткнення. Переглядаючи журнали аварій і дані, надані Tesla, NHTSA виявило, що у більшості проаналізованих аварій водії не гальмували або не кермували, щоб уникнути небезпеки.

NHTSA також порівняло функції автоматизації Tesla рівня 2 (L2) з продуктами, доступними в автомобілях інших компаній. На відміну від інших систем, Autopilot скоріше усуває водія від управління, ніж надає допомогу в управлінні. Це «перешкоджає» водіям бути залученими в задачу управління автомобілем. Tesla виділяється в галузі в її підході до технології L2 через невідповідність слабкого залучення водія дозволеним робочим можливостям Autopilot. Навіть назва бренду «Autopilot» вводить в оману споживачів. Продукти Tesla спонукають водіїв думати, що вони здібніші та ефективніші, ніж вони є насправді. Інші виробники застосовують слова на кшталт «допомога».

Курс Розмовної англійської від Englishdom.
Після цього курсу ви зможете спілкуватись з іноземцями і цікаво розкажете про себе.

Приєднатися

NHTSA підсумовує, що водії, які використовують Autopilo або більш просунуту систему, Full Self-Driving, «не були достатньо залучені до задачі керування», а технологія Tesla «не забезпечувала належним чином те, щоб водії зосереджували свою увагу на задачі керування».

NHTSA визнає, що його дослідження може бути неповним через «прогалини» в телеметричних даних Tesla. Це може означати, що аварій із залученням Autopilot та FSD набагато більше, ніж вдалося виявити Адміністрації.

Джерело: The Verge

Розділ Технології виходить за підтримки Favbet Tech

Favbet Tech – це ІТ-компанія зі 100% українською ДНК, що створює досконалі сервіси для iGaming і Betting з використанням передових технологій та надає доступ до них. Favbet Tech розробляє інноваційне програмне забезпечення через складну багатокомпонентну платформу, яка здатна витримувати величезні навантаження та створювати унікальний досвід для гравців. IT-компанія входить у групу компаній FAVBET.

[ad_2]

Источник

Вам может понравиться