Imagine um futuro em que robôs autônomos tomam decisões de
vida ou morte com base não apenas em dados, mas também em um código
moral pré-programado. Não estamos falando de uma história distópica. E
sim de um programa do Pentágono, nos EUA, que é. Ao longo dos próximos cinco anos, o Escritório de Pesquisa Naval vai
conceder US$ 7.5 milhões para pesquisadores universitários criarem um
robô que sabe exatamente o que é certo e o que é errado. Esse senso de
consequência moral pode fazer com que sistemas autônomos operem com mais
eficiência e, bem, autonomamente. Algumas pessoas podem até pensar que
máquinas podem tomar decisões melhores que seres humanos, já que elas só
podem seguir as regras para as quais foram definidas e calculam as
consequências a partir de diferentes cenários.
Faz um pouco de sentido quando vemos desta forma. “Com drones,
mísseis, veículos autônomos e outros, os militares estão rapidamente
criando sistemas que precisam tomar decisões morais”, explicou o
pesquisador de AI Steven Omohundro ao Defense One.
“Vidas humanas e propriedades dependem dos resultados dessas decisões, e
por isso é fundamental que isso seja feito com cuidado e pleno
conhecimento das capacidades e limitações dos sistemas envolvidos. Os
militares sempre tiveram que definir ‘as regras da guerra’ e essa
tecnologia deve aumentar essa necessidade.”
Por outro lado, programar robôs com um certo código moral significa
que todos temos concordar com este código moral. Sem me aprofundar em
filosofia, é fácil entender como isso pode ser uma tarefa bastante
controversa. Mesmo que o poder do processamento computacional possa ser
útil, digamos, em um hospital, é bem complicado quando estamos apontando
mísseis contra pessoas.
“Não acho que eles vão desenvolver um robô ético ou moral”, disse
Noel Sharkey, outro especialista em inteligência artificial, em resposta
ao artigo. “Para isso, precisaríamos de uma agência moral. Para isso
precisamos entender os outros e saber o que significa o sofrimento. O
robô pode ser instalado com algumas regras de ética, mas não importa.
Ele vai seguir as ideias de ética do seu projetista humano.”
O debate pode se estender muito além disso. Vale a pena se aprofundar
nele, já que dependemos cada vez mais de máquinas. E pesquisas indicam
que já temos robôs moralmente responsáveis
por suas ações. Por que não programar moral para alguns deles? Talvez
porque eles podem decidir que a coisa certa a se fazer é tomar o
controle do mundo e eliminar os seres humanos fracos. Asimov já nos
disse como essa história termina.
Fonte:Gizmode
Nenhum comentário:
Postar um comentário