Вот ссылка на процесс Tesla — https://www.tesla.com/support/safety-score

Этот тест состоит из пяти областей: предупреждения о прямом столкновении на 1000 миль, резкое торможение, агрессивный поворот, небезопасное следование и принудительное отключение автопилота. Отдельно от «Автопилота» значение имеют первые четыре. Однако они используются здесь в основном в зловещих и коварных целях, а не для того, чтобы сделать этих водителей или общественность более безопасными. Да, они предназначены для обнаружения небезопасных водителей-людей, но в первую очередь для того, чтобы позволить им быть человеческими морскими свинками и быть более эффективными для тестирования следующей версии «Автопилота». (Если бы это должно было сделать всех водителей более безопасными, программное обеспечение «автопилот» использовалось бы для этой цели во всех автомобилях. А не только в тех, кто платит 10 тысяч долларов за «Автопилот».) Чтобы совершить Харикари, открыто или отточено, они теперь имеют честь быть принесенными в жертву как человеческие морские свинки, чтобы научить эти системы перестать проваливать КАЖДОЕ ИЗ ЭТИХ ИСПЫТАНИЙ. К тому система устроена так, чтобы заставить это происходить через те самые сбои.

Давайте посмотрим на небрежную и смертельную иронию и лицемерие некоторых из этих тестов

Предупреждение о прямом столкновении

Этот тест подходит, если предположить, что объект движется вместе с автомобилем. Если это не так, и он пересекает или стационарен, система часто будет натыкаться на него, потому что AP и AEB здесь часто дают сбой. Отсюда и два расследования НАБДД. Один для всех поврежденных автомобилей и последний для машин скорой помощи. Эта первопричина привела как минимум к 5 смертельным исходам.

Жесткое торможение

Ирония здесь жестокая. «Автопилот» и автоматическое экстренное торможение (AEB), скорее всего, не сработают, если на их пути окажется неподвижный или пересекающийся объект. Следовательно, эта система не может резко тормозить в таких случаях, потому что она вообще не тормозит. Это делает этот тест еще одним ложным доверием, вводящим в заблуждение повторным использованием. Зачем здесь этот «тест»? Давайте посмотрим на текст. «Раннее нажимайте на педаль тормоза, когда замедляетесь, останавливаетесь или реагируете на изменение окружающей среды». Если «безопасный водитель» тормозит слишком рано, сценарий аварии, даже самое начало, никогда не возникает. Поэтому его нельзя проверить и изучить. Этот тест тренирует морских свинок-людей, чтобы они лучше управляли камикадзе.

Агрессивный поворот

«Автопилот» в настоящее время борется с границами полосы движения. В том числе, когда есть четкие линии. Система часто выезжает на встречную полосу. Элон не хочет, чтобы водитель-человек делал это, чтобы он мог оставаться в живых достаточно долго, чтобы пожертвовать собой, чтобы система провалила этот тест, чтобы она могла извлечь из него уроки. (И имейте в виду, что, как и во всех сценариях, этот процесс требует многократного повторения.)

Принудительное отключение автопилота

У этого нет вспомогательного положительного побочного продукта для вождения человека. Это также единственный пробный запуск только при включенном «Автопилоте». Его единственная цель — ввести мир в заблуждение и обеспечить ложную уверенность. Проблема в том, что сигнал тревоги Tesla DM имеет задержку 20 секунд или более. Какое расстояние проезжает автомобиль за 20 секунд со скоростью 40 миль в час? 1200 футов или четверть мили. В большинстве случаев сбои происходят в течение этого периода времени. Делая это предупреждение и тревогу вводящей в заблуждение, небрежной шуткой. «Тест» заключается в том, чтобы убедиться, что вы не допустите, чтобы безрассудное время будильника с 20 секунд увеличилось до 21 секунды или дольше. (Во многих случаях система сама работала 30 секунд или более.) Чтобы не пройти эти тесты, водителю-человеку должно повезти, чтобы он не попал в аварию в течение времени задержки тревоги. Таким образом, этот процесс не предназначен для того, чтобы избежать краха, он предназначен для обеспечения ложной уверенности и законного воздушного прикрытия для тех, кто не может так просто считать.

Удалить повторное использование

Последний вопрос заключается в том, увидит ли мир, особенно подопытные кролики Тесла и регулирующие органы, такое повторное использование? Увидят ли они, что это предназначено для того, чтобы ввести их в заблуждение, дать ложную уверенность, усугубить ситуацию, способствовать большему количеству столкновений с машинами скорой помощи и убивать людей?

Обновление — в тот же день

Обновление — в тот же день

· В настоящее время в Твиттере появляется все больше сообщений о том, что люди проезжают на красный свет, чтобы избежать проблем с жестким торможением и плохих результатов. Позор, езда на красный свет не входит в тест?

· Я ошибся во времени будильника FCW и перепутал его со временем будильника DM. Я удалил раздел FCW и усилил раздел «Принудительное отключение автопилота».

Подробнее о моем POV здесь. В том числе, как это сделать правильно.

НАБДД должно немедленно ввести мораторий на «Автопилот» и сообщить о первоначальных результатах расследования в течение 30 дней.

· https://imispgh.medium.com/nhtsa-should-impose-an-immediate-autopilot-moratorium-and-report-initial-investigation-findings-de5b6da4d704

Председатель NTSB ложно заявляет: «Мы сделали все, что могли» в отношении фиаско Tesla с «Автопилотом».

· https://imispgh.medium.com/ntsb-chair-falsely-states-we-have-done-all-we-can-do-with-regard-to-teslas-autopilot-debacle-be6c5e45f0f

Индустрию автономных транспортных средств можно спасти, сделав противоположное тому, что делается сейчас для создания этой технологии.

· https://medium.com/@imispgh/the-autonomous-vehicle-industry-can-be-saved-by-doing-the-opposite-of-what-is-bench-done-now-b4e5c6ae9237

Журнал SAE Autonomous Vehicle Engineering — новое поколение Simulation (с участием Dactle)

· https://www.sae.org/news/2020/08/new-gen-av-simulation

Как неудавшаяся операция по спасению иранских заложников в 1980 году может спасти индустрию автономных транспортных средств

· https://imispgh.medium.com/how-the-failed-iranian-hostage-rescue-in-1980-can-save-the-autonomous-vehicle-industry-be76238dea36

USDOT представляет VOICES Proof of Concept для индустрии автономных транспортных средств. Смена парадигмы?

· https://imispgh.medium.com/usdot-introduces-voices-proof-of-concept-for-autonomous-vehicle-industry-a-paradigm-shift-87a12aa1bc3a

Усилия по разработке «автопилота» Tesla необходимо остановить, а людей привлечь к ответственности

· https://medium.com/@imispgh/tesla-autopilot-development-effort-needs-to-be-stopped-and-people-arrested-f280229d2284