Os dilemas éticos dos carros autônomos

11 de março de 2020 5 mins. de leitura

Algoritmos demandam definições de ordem moral para tomadas de decisão em situações-limite

Publicidade

Há situações em que a tecnologia transforma o cotidiano das pessoas mediante inúmeras implicações morais. Frequentemente, elas ocorrem no campo da bioética, como no caso da clonagem humana e de exemplos de manipulação genética, que abrem uma enorme discussão filosófica sobre a gestão da vida em laboratório.

Conheça o mais importante evento de mobilidade do Brasil

Mas e se a discussão tiver a ver com algum risco de morte? Essa é uma preocupação constante na efetivação dos projetos de carros autônomos como possibilidade de transporte cotidiano.

Como o movimento nas ruas não pode ser previsto nem controlado, o carro autônomo pode se deparar com situações como pessoas desobedecendo a sinalização, crianças e animais correndo riscos de atropelamento — ou tudo isso ao mesmo tempo —, o que demanda escolhas que lembram o famoso dilema do bonde, proposto pela professora britânica de Filosofia, Philippa Foot, no fim do século passado.

O experimento ético propõe pensar em uma história hipotética na qual o maquinista de um bonde sem freio precisa optar por uma ramificação do trilho e matar essa ou aquela pessoa, ou grupo de pessoas, para salvar outras. No caso dos veículos autônomos, a discussão deixa de ser uma suposição e ganha contornos dramaticamente reais.

Segurança

(Fonte: Shutterstock)

De maneira geral, os carros autônomos tendem a oferecer segurança. Informações do Departamento de Trânsito dos Estados Unidos indicam que o erro humano é determinante em 94% dos casos de acidente de trânsito, contra apenas 2% de falha mecânica. Ponto para as máquinas.

Foi isso o que também concluiu Chris Urmson, diretor do programa de direção autônoma da Google, ao relatar que não houve qualquer acidente de grande impacto durante milhares de testes e que, mais do que isso, as câmeras dos veículos da empresa flagraram outros motoristas oscilando entre as faixas, lendo livros e até tocando instrumentos musicais durante a direção — não é difícil entender por que há anualmente 33 mil mortes nas estradas estadunidenses.

Além disso, os algoritmos tendem a tomar decisões mais rápidas que os humanos, o que pode ser vital em situações de risco. Mas é aí que o problema moral aparece: são os humanos que devem ensinar à inteligência embarcada qual é a melhor decisão.

(Fonte: Shutterstock)

Embora sejam improváveis, falhas ocorrem: é conveniente programar o carro para avançar sobre um adulto e não sobre uma criança em um caso extremo de falha de freio, por exemplo? Ou, ainda, é preciso ensinar a colocar o motorista em perigo em vez de um grupo de pessoas fora do veículo?

O consultor de tecnologia e inovação Arie Halpern coloca essa questão nos seguintes termos: “já sabemos que os carros são seguros — muito mais que motoristas humanos, ao menos —, mas, caso algo não saia como planejado, quem será responsabilizado?”.

Essa pergunta faz sentido tanto do ponto de vista das empresas de tecnologia, a exemplo do acidente fatal com o modelo em teste da Uber, quanto dos futuros compradores desses carros.

Segundo uma pesquisa da revista Science a respeito do que as pessoas priorizam (segurança de um grupo externo versus segurança dos passageiros), entrevistados concordaram que salvar o maior número de pessoas é o correto do ponto de vista ético, mas sinalizaram que não comprariam um carro programado dessa forma.

Em qualquer cenário, sobressai a segurança do motorista e dos passageiros. Isso ganha uma dimensão complexa porque, embora os carros totalmente autônomos estejam distantes de estarem à venda, é provável que as empresas atendam à demanda dos clientes diante do dilema mencionado.

O Massachusetts Institute of Technology (MIT) também se debruçou sobre o dilema moral de quem deve viver em uma situação extrema no trânsito. A pesquisa, com 40 milhões de respostas e disponível no site Moral Machine, em português, permitiu hierarquizar dentro do modelo do teste quais vidas deveriam ser salvas prioritariamente e foi capaz de antecipar como a questão com os carros autônomos é sensível.

As decisões tomadas diante de situações críticas permitem concluir que, para os entrevistados, a vida de um criminoso vale menos do que a de um cão; idosos valem menos do que jovens; obesos valem menos do que pessoas com porte mais atlético; moradores de rua valem menos do que executivos e médicos.

Há, ainda, diferenças de cultura que podem tornar os algoritmos de um local inapropriados para outro em virtude dos costumes. Para um ocidental, entre o risco de atropelar uma criança e uma vaca, será fácil tomar uma decisão, mas e para um hindu?

Por isso, Halpern defende que, tanto quanto aprimorar a tecnologia embarcada, precisamos definir desde já quais são os parâmetros éticos aceitáveis para as diferentes situações que essa nova opção de mobilidade enfrentará nas ruas.

Curtiu o assunto? Clique aqui e saiba mais sobre como a mobilidade pode melhorar os espaços.

1370cookie-checkOs dilemas éticos dos carros autônomos

Webstories