Carro autônomo mata pedestre: quem é o culpado?

2 min de leitura
Imagem de: Carro autônomo mata pedestre: quem é o culpado?
Imagem: theinformation
Avatar do autor

Equipe TecMundo

Uma das grandes dúvidas envolvendo os carros autônomos está na responsabilidade nos casos de acidentes causados por esses veículos: a culpa seria da empresa responsável pelo carro ou do fornecedor do software?

Agora, chega à justiça americana o primeiro caso de morte causada por um desses veículos. Não teremos uma resposta definitiva, pois o carro, um Volvo que era testado pela Uber, tinha a bordo uma motorista que deveria agir caso ocorresse uma situação inesperada. Ela não agiu e acabou sendo indiciada.

O fato aconteceu em 2018, no Arizona, quando uma pedestre atravessou a via fora da faixa de segurança e acabou atropelada e morta.

A motorista foi acusada de homicídio culposo, depois que câmeras instaladas no interior do carro mostraram que ela, até momentos antes do acidente, desviava repetidamente os olhos da via e voltava-os para seu colo.

Ela parou de assistir The Voice no celular apenas momentos antes de o veículo atingir a pedestre

Embora ela tenha negado inicialmente que estivesse manipulando qualquer dispositivo eletrônico ao volante, dados que o Hulu, uma empresa do grupo Disney que fornece serviços de vídeo sob demanda forneceu à polícia, mostraram que a motorista estava assistindo em seu celular a um episódio de "The Voice" - ela parou de assistir apenas momentos antes de o veículo atingir a pedestre.

A investigação descobriu também que a inteligência artificial de direção autônoma continha falhas de segurança e de design, incluindo a incapacidade de reagir adequadamente a pedestres que atravessassem fora da faixa. Como resultado, o software não iniciou a frenagem até que fosse tarde demais para o carro evitar uma colisão. Esse era exatamente o tipo de falha que a motorista deveria evitar, o que, segundo a justiça, isenta a Uber de culpa, apesar de ter ficado registrado que a empresa tinha uma cultura de segurança inadequada.

 Esse era exatamente o tipo de falha que a motorista deveria evitar, o que, segundo a justiça, isenta a Uber de culpa, apesar de ter ficado registrado que a empresa tinha uma cultura de segurança inadequada

A empresa retomou os testes, passando a usar dois motoristas em cada carro, cada um deles trabalhando no máximo quatro horas por dia. Também implementou um sistema de gerenciamento de segurança, visando superar as falhas apontadas pela justiça.

O acidente é apontado como uma das causas do atraso no desenvolvimento dos veículos autônomos. Independentemente da decisão da justiça neste caso, preocupações com responsabilidades de ordem legal, devem perdurar durante bastante tempo.

***

Vivaldo José Breternitz, autor deste artigo, é Doutor em Ciências pela Universidade de São Paulo, é professor da Faculdade de Computação e Informática da Universidade Presbiteriana Mackenzie.

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.