Entenda como o Full Self Driving da Tesla pode ser perigoso

Os reguladores federais se animaram quando a Tesla, no mês passado, começou a permitir que alguns clientes testassem um novo software de direção autônomo que havia adicionado a seus carros. Os reguladores disseram que iriam “monitorar a nova tecnologia de perto” e “tomar medidas para proteger o público contra riscos irracionais à segurança”.

Um desses riscos de segurança pode ser o nome do software da Tesla: “Full Self Driving”. Em sua forma atual , o software pode assumir o controle dos motoristas para estacionar, permanecer em uma pista, cruzar em rodovias e parar no sinal vermelho, mas não torna os veículos “autônomos”.

Pelos padrões da indústria, o sistema da Tesla é considerado um sistema avançado de assistência ao motorista, ou ADAS, e não uma tecnologia de direção autônoma. Há esperança de que os sistemas ADAS aumentem a segurança rodoviária em geral. Mas também existe a preocupação de que se os motoristas depositarem muita fé na tecnologia assistiva, eles podem se tornar desatentos, prejudicando os benefícios de segurança.

Nomes e marketing que implicam em níveis mais altos de autonomia para um sistema ADAS aumentam o risco de distração ou direção irresponsável, de acordo com um estudo publicado em setembro pela Fundação AAA para Segurança no Trânsito. No estudo, 90 motoristas foram informados que estavam prestes a fazer um teste de direção de um veículo com recursos de assistência ao motorista.

Metade dos motoristas foi informada de que o sistema se chamava “AutonoDrive” e recebeu informações introdutórias que se concentram em como isso reduziria sua carga de trabalho. A outra metade foi informada que usaria um sistema chamado “DriveAssist” e que teria que monitorá-lo. As capacidades reais do sistema foram descritas com precisão para cada grupo.

Quando pesquisados ​​após esta introdução, 42% dos motoristas no grupo “AutonoDrive” superestimaram as capacidades do sistema, enquanto apenas 11% dos motoristas no grupo “DriveAssist” cometeram o mesmo erro. Os usuários do “AutonoDrive” também relataram maior “disposição para se envolver em comportamentos potencialmente perturbadores ou arriscados” durante o uso do sistema e maior crença de que o sistema evitaria uma colisão. Na verdade, era improvável que o sistema evitasse travamentos nos cenários apresentados, segundo os pesquisadores.

Ambos os grupos de motoristas testaram veículos equipados com o sistema de assistência ao motorista SuperCruise da Cadillac (embora o nome real do sistema não tenha sido revelado). Os motoristas que foram informados de que estavam usando o “AutonoDrive” passaram 30% mais tempo com as mãos longe do volante do que aqueles que estavam usando o “DriveAssist”. Os participantes do grupo “AutonoDrive” também eram muito mais propensos a responder lentamente (mais de cinco segundos) às instruções do sistema automatizado do carro para assumir o controle do veículo.

O fato de sistemas como o de Tesla serem projetados para melhorar com o tempo pode aumentar a confusão do usuário. A Tesla e seu CEO, Elon Musk, frequentemente previram que o software Full Self Driving acabará permitindo que um Tesla dirija sozinho sem qualquer supervisão humana e até mesmo opere como um táxi robótico . Isso seria considerado, pelo menos, automação de nível 4, de acordo com as classificações da Society For Automotive Engineers. Mas hoje, Tesla ainda enfatiza que Full Self-Driving requer “supervisão ativa do motorista”, o que significa que se qualifica como nível 2 de automação na escala SAE.

A confusão resultante é generalizada: até mesmo algumas publicações automotivas referem-se ao software como “totalmente autônomo”, quando Tesla afirma explicitamente que não é. Alguns reguladores reclamaram da desconexão – um tribunal alemão, por exemplo, decidiu em julho que a marca “Autopilot” era enganosa.