Uma máquina com IA: moral e ética?

À medida que o desenvolvimento da inteligência artificial (IA) progride, os especialistas começaram a considerar a melhor forma de dar um sistema de IA a uma espinha dorsal ética ou moral. Uma ideia popular é ensinar a IA a se comportar de forma ética ao aprender com as decisões tomadas pela pessoa comum.

Para testar essa suposição, pesquisadores do MIT criaram a Máquina Moral. Os visitantes do site foram convidados a fazer escolhas sobre o que um veículo autônomo deveria fazer diante de cenários bastante horríveis. Por exemplo, se um carro sem motorista estivesse sendo forçado a entrar em pedestres, deveria atropelar três adultos para poupar dois filhos? Salve uma mulher grávida à custa de um homem idoso?

A Máquina Moral conseguiu coletar uma grande quantidade desses dados de pessoas aleatórias, então Ariel Procaccia do departamento de informática da Universidade Carnegie Mellon decidiu colocar esses dados para funcionar.

Em um novo estudo publicado on-line, ele e Iyad Rahwan – um dos pesquisadores por trás da Máquina Moral – ensinaram um AI usando o conjunto de dados da Máquina Moral. Então, eles pediram ao sistema que preveja como os seres humanos queriam que um automóvel auto-dirigido reagisse em cenários semelhantes, mas anteriormente não testados.

Efectivamente, a Proccacia queria demonstrar como um sistema baseado em votação poderia fornecer uma solução para a questão ética da AI e ele acredita que seu algoritmo pode efetivamente inferir as intuições éticas coletivas presentes nos dados da Moral Machine. “Não estamos dizendo que o sistema está pronto para a implantação”, disse ele ao The Outline. “Mas é uma prova de conceito, mostrando que a democracia pode ajudar a enfrentar o grande desafio da tomada de decisão ética na IA”.

Moralidade de Crowdsourced

Essa idéia de ter que escolher entre dois resultados moralmente problemáticos não é nova. Os eleitores ainda têm um nome para ele: o efeito duplo. No entanto, ter que aplicar o conceito a um sistema artificialmente inteligente é algo que a humanidade nunca teve que fazer antes, e numerosos especialistas compartilharam suas opiniões sobre a melhor maneira de ir sobre isso.

O co-presidente da OpenAI, Elon Musk, acredita que a criação de uma AI ética é uma questão de elaborar diretrizes ou políticas claras para governar o desenvolvimento, e os governos e as instituições atendem lentamente o chamado de Musk. A Alemanha, por exemplo, elaborou as primeiras diretrizes éticas do mundo para auto-condução de carros. Enquanto isso, a AI DeepMind da Alphabet, da empresa-mãe da Google, agora tem uma unidade de ética e sociedade.

Outros especialistas, incluindo uma equipe de pesquisadores da Duke University, pensam que a melhor forma de avançar é criar uma “estrutura geral” que descreva como a AI tomará decisões éticas. Esses pesquisadores acreditam que agregar as visões morais coletivas de uma multidão em várias questões – como a Máquina Moral faz com auto-condução de carros – para criar essa estrutura resultaria em um sistema que é melhor que um construído por um indivíduo.

No entanto, esse tipo de moralidade multidimensional não é infalível. Um grupo de exemplo pode ter vieses que não estarão presentes em outro, e diferentes algoritmos podem ser apresentados os mesmos dados, mas chegar a conclusões diferentes.

Para o professor da Faculdade de Direito de Cornell, James Grimmelmann, que se especializa na dinâmica entre software, riqueza e poder, a idéia de moralidade multidimensional em si é inerentemente falha. “[Ele] não torna a AI ética”, disse ele ao The Outline. “Isso torna a AI ética ou antiética da mesma forma que um grande número de pessoas são éticas ou antiéticas”.

Para Proccacia, essas limitações são válidas, e ele reconhece que sua pesquisa ainda é apenas uma prova de conceito. No entanto, ele acredita que uma abordagem democrática para construir uma IA moral poderia funcionar. “A democracia tem suas falhas, mas eu sou um grande crente nele”, disse ele. “Mesmo que as pessoas possam tomar decisões, não concordamos, a democracia global funciona”.