Máquinas Morais. Com a automatização a ganhar impulso no…


Foto de Emanuela Meli em Unsplash

Com a automação a ganhar impulso na infraestrutura tecnológica existente, haverá menos supervisão humana e uma consequente urgência em fazer progressos na construção de agentes morais artificiais (AMAs). Há duas metodologias principais para o seu desenvolvimento: Top-down, em que as directivas éticas são pré-programadas, e Bottom-up, em que a moralidade é aprendida a partir das interacções. No entanto, uma abordagem mais sofisticada é o sistema híbrido. Combina princípios inerentes com aprendizagem adaptativa e experimental, entrelaçando predisposições de tipo genético com valores culturalmente aprovados. Isto pode levar a uma AMA segura em padrões éticos fundamentais e adaptável a terrenos morais.

Uma abordagem descendente engloba regras e princípios aplicados ao agente enquanto actua em situações específicas. Define-se como a utilização de teorias explícitas de conduta moral e ética nos algoritmos de decisão dos agentes artificiais.

Um conjunto de regras é um saco heterogéneo.

medida que o número de regras aumenta, surge muita ambiguidade relativamente aos conflitos contextuais entre duas regras sem supervisão manual. Além disso, a IA é um domínio que envolve actualizações constantes; as regras devem ser reajustadas frequentemente. Uma máquina pode deduzir um pressuposto das regras, o que pode ser fatal em determinados cenários. Há duas teorias importantes aqui discutidas – o utilitarismo e a deontologia kantiana. O utilitarismo implica o cálculo exaustivo de todos os cenários possíveis para calcular o estado pós-ação do agente, o que exige uma grande quantidade de cálculos. A deontologia de Kant centra-se nos motivos para a ação e a sua validação; exige que os agentes cumpram os seus deveres e direitos respectivos.

A deontologia de Kant centra-se nos motivos da ação e exige que os agentes cumpram os seus deveres e direitos.

Uma abordagem de baixo para cima não pretende impor um conjunto de princípios morais, mas tenta proporcionar um ambiente de aprendizagem a agentes artificiais onde a dinâmica comportamental pode ser estabelecida. É como o desenvolvimento educacional de uma criança, e a premissa baseia-se na evolução e na aprendizagem ativa através de experiências, tentativas e erros e feedback. Esta situação coloca uma questão…

E se os nossos princípios forem abstractos para essas experiências? Como é que se pode treinar as máquinas para isso?

A questão resume-se às restrições vitais primárias incorporadas nas camadas fundamentais de um sistema artificial. Esta abordagem gera um conjunto de algoritmos evolutivos que começam com um conjunto heterogéneo de princípios relacionados com a consciência humana e depois aperfeiçoam progressivamente esses princípios com base em experiências com as unidades básicas do sistema artificial. A principal conclusão desta discussão é que a atribuição de responsabilidade moral a uma máquina não deve ser abordada de uma perspetiva teórica e tirar uma conclusão a partir daí.

Há um desafio intrigante na abordagem de baixo para cima:

Como é que estabelecemos regras fundamentais num sistema de modo a que este não possa alterar ou ignorar novas entradas por si próprio?

O artigo “Artificial Morality” de Colin et al. levantou preocupações sobre o potencial de uma máquina para contornar as suas restrições, especialmente se se tornar auto-consciente ou aprender a ajustar as suas definições internas para influenciar os dados recebidos. Na Blockchain, encontramos um conceito conhecido como registos imutáveis. É como incorporar um livro de regras permanente no sistema que não pode ser alterado.

Este princípio baseia-se na Tolerância a Falhas Bizantinas, que garante que todo o sistema se mantém no caminho certo, mesmo que algumas partes do sistema se alterem ou falhem.

Agora, imagine aplicar esta ideia à IA. Poderíamos utilizar um modelo descentralizado em vez de uma conceção centralizada em que uma unidade central detém todo o poder. Mesmo que algumas partes ou nós fiquem comprometidos numa tal configuração, todo o sistema de IA não ficará comprometido. É como ter um comité em vez de um único líder – as decisões são tomadas coletivamente, assegurando que nenhuma parte isolada pode perturbar o processo global. Pode ser uma potencial solução para um profundo problema filosófico e de engenharia, abordando as preocupações e os desafios enfrentados pelos criadores de tecnologia e filósofos éticos.

~Ashutosh