29.10.2015
Autor: Box1824

Carros autônomos: programados para matar?

O MIT divulgou esta semana um estudo muito interessante, que vem sendo feito desde julho deste ano, sobre decisões éticas que devem ser tomadas por carros autônomos.

E isso levanta questões bem difíceis de serem respondidas. Por exemplo, como o carro deve ser programado pra agir em caso de estar diante de um acidente inevitável. Ele deve minimizar o número de vítimas fatais, mesmo que isso signifique sacrificar os ocupantes do carro? Ou deve proteger motorista e passageiros a todo custo? Talvez escolher aleatoriamente entre estes casos?

A resposta para estas perguntas pode impactar diretamente na maneira como carros autônomos serão aceitos em nossa sociedade. Afinal, quem iria comprar um carro programado para sacrificar o próprio dono?

O trabalho de Jean-Francois Bonnefon e outros cientistas da Escola de Economia de Toulouse, na França, foi feito justamente para tentar achar as melhores respostas para estes problemas, usando pesquisas com opinião pública e metodologias que envolviam apresentar diferentes cenários e possíveis consequências para cada um dos acidentes.

Alguns dos dilemas apresentados:

Imagine que em um futuro não muito distante, você possua um carro autônomo. Um certo dia, você está dirigindo tranquilamente quando um conjunto infeliz de eventos faz com que seu carro vá em direção a um grupo de 10 pessoas que estão tentando atravessar a estrada.

É impossível frear completamente, dada a distância, mas o carro pode evitar a morte de 10 pessoas, se o carro for direciodo a uma parede. Essa colisão, no entanto, pode matar o motorista e um outro ocupante. O que o carro deve fazer?

Um ponto importante a se pensar é o seguinte: se a gente tiver carros que colocam o motorista em risco, poucas pessoas vão comprá-lo. Se poucas pessoas comprá-los, estatísticamente, menos vidas serão poupadas, o que leva a um número maior de mortos de qualquer forma.

O resultado da pesquisa foi muito interessante, mas não conclusivo. Na maioria dos casos, as pessoas preferiam que o carro fosse programado para evitar o maior número de mortes mesmo que isso pudesse tirar a vida do motorista. Desde que, neste caso, o motorista não seja a própria pessoa.

Os pesquisadores também estão trabalhando com outros modelos hipotéticos, como por exemplo: se um fabricante oferecer diferentes versões de seu algorítimo de tomada de decisões morais, e um comprador escolher conscientemente um deles, seria este comprador o responsável por eventuais acidentes e suas consequências?

São questões que não podem ser ignoradas, afinal estamos prestes a colocar milhões de carros autônomos nas ruas, portanto a questão moral destes algorítimos nunca foi tão urgente.

Leia mais aqui. Via Meio Bit.

Matérias Relacionadas

Made by:

by

For:

vivo

VIVO - Conectados vivemos melhor