sexta-feira, 10 de maio de 2019

DA URGÊNCIA DE UMA ÉTICA GLOBAL PARA A INTELIGÊNCIA ARTIFICIAL

1° Projecto de Orientações éticas da UE para o Desenvolvimento da Inteligência Artificial (IA)
António Justo
 
A China está a estabelecer um "sistema de pontos de crédito social" (1) para recompensar e punir o comportamento social de seus cidadãos com pontos; no sistema é registado o comportamento das pessoas; por exemplo:  quem usa a bicicleta como meio de transporte, quem pagou as facturas, quem visitou os pais, etc. Quem não se comporta bem ou tem uma má pontuação social não recebe empréstimos, nem bilhetes de comboio, de avião, etc. Nos USA há um sistema de crédito bancário que com o tempo poderia também ele ser desenvolvido para controlo generalizado. Na Europa também há países em que se nota uma tendência para controlar o cidadão através dos dados bancários e das finanças. Já hoje, os algoritmos decidem quais os anúncios e a propaganda aferida às tendências da pessoa e que se recebe no Facebook/Smartphone.  Naturalmente não há comparação entre estes países e a ditadura de informação técnica (IT) chinesa, mas a sociedade corre o perigo de caminhar nesse sentido: vigilância completa por poderes anónimos.

O projecto de orientações éticas da UE (2) para lidar com a Inteligência Artificial (IA) foi agora (7.05.2019) apresentado por 52 especialistas de universidades, empresas e da sociedade civil na intenção de garantirem regras que desenvolvedores, aplicadores e usuários da IA devem observar para não fugirem aos direitos humanos e princípios fundamentais. 

A criação de sistemas de armas autónomas, automóveis sem condutor, medicina computorizada trazem consigo a preocupação de quem é que decide e até que ponto são respeitados os valores humanos e uma humanidade equilibrada. É preciso criar-se regras para que o controlo exercido pela pessoa não passe para segundo plano ou se abdique dele.  Os drones podem decidir por si mesmos sobre vida e morte. A indústria prefere, a nível mundial, fazer adiar decisões (28 nações já assinaram tratado contra o desenvolvimento de tais armas (a Alemanha não).

A IA não pode poder tudo nem determinar tudo…. Com ela está em jogo o lugar da pessoa humana na Criação. De acordo com os especialistas da UE, também se deveria impedir a criação de uma consciência artificial com sentimentos humanos (Coisa propriamente impossível: uma inteligência artificial alienada da humanidade e fora do controle humano poderia até destruir os seres humanos). 

No caso de sistemas inteligentes poderem criar uma utopia restaria a questão se essa utopia não seria só para uma elite. Será difícil de evitar a criação de massas proletárias e de pessoas carenciadas a viver na dependência total. O saber tecnológico e de assistência a tais sistemas será tão elevado que levará a criar poucos centros de apoio com uma burocracia tecnológica de difícil acesso e deste modo monopólios que virão dar razão a algumas teses de Karl Marx, só que numa outra perspectiva de um totalitarismo comunista sócio do capitalismo de Estado (talvez no sentido de um modelo chinês). 

O seu emprego também poderá ser fonte de maior justiça, mas é necessária uma atenção especial dado, em geral, serem os investidores e produtores que determinam a comportamentos e a consequente aceitação da oferta; o mercado obriga, como se vê no Google e Facebook.  A velocidade do desenvolvimento e dos grandes capitais que o fomentam levarão tudo o que é pequenada (aquilo a que chamamos povo!) a ser arrastada pela sua aragem e especialmente pelo poder normativo do factual. Quanto mais inteligentes e complexas as máquinas ou robôs, mais indolente se pode tornar a inteligência humana da generalidade, ficando reservado só para alguns o conhecimento e sua determinação.

Quanto a possíveis erros dos sistemas, há que distinguir entre os erros humanos (juiz) que são individuais e como tal situáveis e limitáveis e os erros de um sistema ou programa IA, onde uma decisão de um sistema de algoritmos poderia tornar-se num problema viral. 

Segundo críticos do documento elaborado, o texto fala demasiado do deve-se e da minimização de perigos parecendo exagerada a precaução de uma ética que não se quer empecilho ao desenvolvimento.  Pessoas que criam esses sistemas de IA pretendem renunciar à sua responsabilização pelas consequências, de algoritmos complexos que avaliam enormes quantidades de dados para o sucesso e fracasso de uma decisão.

A China, que não se sente sujeita a standards ocidentais cristãos da dignidade da pessoa humana e seus direitos, pode tecnicamente distanciar-se e ganhar a corrida na concorrência. Daí a necessidade de uma ética abrangente e universalmente aceite.

Na discussão relativa à concorrência de quem conquistará os mercados com novos produtos, há grupos progressistas que consideram as ideias cristãs de defesa da personalidade humana como um atraso e um impedimento ao desenvolvimento da ciência. Também por isso o materialismo a espalhar-se mundialmente através de agendas luta tanto contra a tradição ocidental devido à sua liderança na filosofia de defesa da dignidade e dos direitos humanos.

Também por isso há movimentos contra a ideia cristã de o Homem ser considerado a coroa da Criação; é o caso de árias ONGs a atuar no Ocidente. Ele é, porém, sujeito e ao mesmo tempo objecto de uma ética humana que o defenda e obrigue a ser responsável também perante toda a criatura e responsável em relação ao futuro. 

Uma Inteligência Artificial muito forte e dominante, se ficasse apenas nas mãos de interesses económicos e ideológicos, produziria rapidamente uma pequena elite privilegiada e uma maioria de “humanos inúteis” em que, num futuro não distante, o seu tratamento com dignidade poderia ser considerado um estorvo (isto num Zeitgeist em que certos parâmetros de qualidade de vida parecem querer sobrepor-se à vida!).

Todos se encontram a aprender, mas as pessoas que criam tais tecnologias, no momento da sua aplicação deverão estar conscientes de serem responsabilizadas pelas consequências - incluindo o pagamento de indemnizações.

Programar também a ética
Será preciso programar nos sistemas IA também planos de valores. As pessoas também usam as tecnologias para explorarem os outros. Por isso é de grande importância não perder o controlo sobre elas e sobre o seu uso. 

A ditadura chinesa tem mais trunfos na mão do que os sistemas democráticos ocidentais apesar das suas lóbis contaminadas. Isto terá como consequência a elaboração de uma moral permeável no Ocidente. Quem determina o ritmo da música é o capital e a indústria. Tudo se está a formalizar em termos de viabilidade; as ideologias vão mudando e surgindo conforme as necessidades.

Em todo o discurso sobre a ética é, muitas vezes, esquecido que só é possível ética onde houver diversidade. As tendências igualitaristas, hoje em voga, correspondem a princípios antiéticos e antinatureza e correspondem ao suborno da liberdade e da natureza.  Os padrões éticos e morais nunca são universais, são sempre culturalmente determinados e profundamente enraizados nas pessoas. Não é possível em pouco tempo a integração global de padrões éticos universais como podemos verificar em relação aos direitos humanos. A ética de que se fala aqui destina-se a proteger a pessoa humana da dependência total de interesses anónimos da indústria e de robôs. 

Os sistemas de inteligência artificial correspondem a um poder computacional a que falta a alma humana. 

Se na nossa sociedade já a maioria dos cidadãos não tem uma ideia do porque pensa como pensa, devido à distância intelectual para com os criadores de consciência social, então com a IA só uma reduzida percentagem da população poderia pensar por si mesma. Se não se estiver atento nem nos precavermos, teremos uma sociedade de alguns gigantes e uma massa de pigmeus! No sistema atual ainda vamos tendo a ilusão de que a maior parte das coisas são determinadas por nós mesmos, mas com a ainda utópica IA descontrolada até essa ilusão desapareceria.

Como simples princípio de orientação ética poderiam ser as Leis da Robótica (3) ou princípios idealizados por Isaac Asimov em 1950: (a) um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal. (b) um robô deve obedecer às que lhe são dadas por um humano - a menos que tal ordem colida com a regra um. (c) um robô deve proteger a sua existência desde que esta protecção não colida com a regra um ou dois. (d) um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.

Em princípio, na automatização, a deliberação deve ser sempre da responsabilidade humana e não anonimizada. A comissão ética europeia também se tinha pronunciado neste sentido (4). 

© António da Cunha Duarte Justo
Teólogo e Pedagogo
 
(1)     Manager magazine: https://www.manager-magazin.de/politik/artikel/china-soziale-kontrolle-durch-sozialkredit-punktesystem-a-1194590.html          De notar que o Sistema de Crédito Social de controlo na China aplica Big Data (para controlo rápido de dados) e ainda não a IA. A criação e aplicação da IA terá consequências muito mais abrangentes.                                               
(4)     European Group on Ethics in Science and New Technologien: https://ec.europa.eu/research/ege/pdf/ege_ai_statement_2018.pdf

Sem comentários: