Os robôs estão se tornando cada dia mais capazes e independentes dos humanos. É preciso desenvolver regras para administrá-los.
No clássico filme de ficção científica “2001 – Uma Odisseia no Espaço”, HAL, o supercomputador da astronave , enfrenta um dilema. Suas instruções requerem, tanto que ele cumpra a missão da nave — investigar um artefato próximo a Júpiter –, quanto manter o verdadeiro propósito da missão em segredo. Para solucionar a contradição, ele resolve matar a tripulação. Conforme os robôs se tornam mais autônomos, a ideia de máquinas controladas por computadores enfrentando decisões éticas está saindo do reino da ficção científica e adentrando o mundo real. A sociedade precisa encontrar modos de assegurar que elas estejam mais bem equipadas que HAL para fazer julgamentos morais.
Na foto-reprodução do filme “2001 – uma Odisseia no Espaço”, o computador HAL diz ao comandante da astronave: “Dave… Eu receio que eu não possa deixar você fazer isso”.
De modo nem um pouco surpreendente, a tecnologia militar está na vanguarda da marcha em direção a máquinas autônomas. A sua evolução está produzindo uma variedade extraordinária de espécies. À medida que elas se tornam mais inteligentes e comuns, é inevitável que as máquinas autônomas acabem por fazer mais decisões de vida ou morte em situações imprevisíveis, desse modo assumindo – ou parecendo assumir – independência moral. Sistemas de armas atualmente contam com a participação de humanos na cadeia de comando, mas à medida que se tornarem mais sofisticados, será possível fazer com que as máquinas sigam ordens de modo autônomo.