1° Projecto de Orientações éticas
da UE para o Desenvolvimento da Inteligência Artificial (IA)
António Justo
A China está a estabelecer um
"sistema de pontos de crédito social" (1) para recompensar e punir o
comportamento social de seus cidadãos com pontos; no sistema é registado o
comportamento das pessoas; por exemplo:
quem usa a bicicleta como meio de transporte, quem pagou as facturas,
quem visitou os pais, etc. Quem não se comporta bem ou tem uma má pontuação
social não recebe empréstimos, nem bilhetes de comboio, de avião, etc. Nos USA
há um sistema de crédito bancário que com o tempo poderia também ele ser
desenvolvido para controlo generalizado. Na Europa também há países em que se
nota uma tendência para controlar o cidadão através dos dados bancários e das
finanças. Já hoje, os algoritmos decidem quais os anúncios e a propaganda
aferida às tendências da pessoa e que se recebe no Facebook/Smartphone. Naturalmente não há comparação entre estes
países e a ditadura de informação técnica (IT) chinesa, mas a sociedade corre o
perigo de caminhar nesse sentido: vigilância completa por poderes anónimos.
O projecto
de orientações éticas da UE (2) para lidar com a Inteligência Artificial (IA)
foi agora (7.05.2019) apresentado por 52 especialistas de universidades,
empresas e da sociedade civil na intenção de garantirem regras que
desenvolvedores, aplicadores e usuários da IA devem observar para não fugirem
aos direitos humanos e princípios fundamentais.
A criação de sistemas de armas
autónomas, automóveis sem condutor, medicina computorizada trazem consigo a
preocupação de quem é que decide e até que ponto são respeitados os valores
humanos e uma humanidade equilibrada. É preciso criar-se regras para que o
controlo exercido pela pessoa não passe para segundo plano ou se abdique
dele. Os drones podem decidir por si
mesmos sobre vida e morte. A indústria prefere, a nível mundial, fazer adiar
decisões (28 nações já assinaram tratado contra o desenvolvimento de tais armas
(a Alemanha não).
A IA não pode poder tudo nem
determinar tudo…. Com ela está em jogo o lugar da pessoa humana na Criação. De
acordo com os especialistas da UE, também se deveria impedir a criação de uma
consciência artificial com sentimentos humanos (Coisa propriamente impossível:
uma inteligência artificial alienada da humanidade e fora do controle humano
poderia até destruir os seres humanos).
No caso de sistemas inteligentes
poderem criar uma utopia restaria a questão se essa utopia não seria só para
uma elite. Será difícil de evitar a criação de massas proletárias e de pessoas
carenciadas a viver na dependência total. O saber tecnológico e de assistência
a tais sistemas será tão elevado que levará a criar poucos centros de apoio com
uma burocracia tecnológica de difícil acesso e deste modo monopólios que virão
dar razão a algumas teses de Karl Marx, só que numa outra perspectiva de um totalitarismo
comunista sócio do capitalismo de Estado (talvez no sentido de um modelo
chinês).
O seu emprego também poderá ser
fonte de maior justiça, mas é necessária uma atenção especial dado, em geral,
serem os investidores e produtores que determinam a comportamentos e a
consequente aceitação da oferta; o mercado obriga, como se vê no Google e
Facebook. A velocidade do desenvolvimento e dos grandes capitais que o fomentam
levarão tudo o que é pequenada (aquilo a que chamamos povo!) a ser arrastada
pela sua aragem e especialmente pelo poder normativo do factual. Quanto
mais inteligentes e complexas as máquinas ou robôs, mais indolente se pode
tornar a inteligência humana da generalidade, ficando reservado só para alguns
o conhecimento e sua determinação.
Quanto a possíveis erros dos
sistemas, há que distinguir entre os erros humanos (juiz) que são individuais e
como tal situáveis e limitáveis e os erros de um sistema ou programa IA, onde
uma decisão de um sistema de algoritmos poderia tornar-se num problema viral.
Segundo críticos do documento
elaborado, o texto fala demasiado do deve-se e da minimização de perigos parecendo
exagerada a precaução de uma ética que não se quer empecilho ao
desenvolvimento. Pessoas que criam esses
sistemas de IA pretendem renunciar à sua responsabilização pelas consequências,
de algoritmos complexos que avaliam enormes quantidades de dados para o sucesso
e fracasso de uma decisão.
A China, que não se sente sujeita
a standards ocidentais cristãos da dignidade da pessoa humana e seus direitos,
pode tecnicamente distanciar-se e ganhar a corrida na concorrência. Daí a
necessidade de uma ética abrangente e universalmente aceite.
Na
discussão relativa à concorrência de quem conquistará os mercados com novos
produtos, há grupos progressistas que consideram as ideias cristãs de defesa da
personalidade humana como um atraso e um impedimento ao desenvolvimento da
ciência. Também por isso o materialismo a espalhar-se mundialmente através de
agendas luta tanto contra a tradição ocidental devido à sua liderança na
filosofia de defesa da dignidade e dos direitos humanos.
Também por
isso há movimentos contra a ideia cristã de o Homem ser considerado a coroa da
Criação; é o caso de árias ONGs a atuar no Ocidente. Ele é, porém, sujeito e ao mesmo
tempo objecto de uma ética humana que o defenda e obrigue a ser responsável
também perante toda a criatura e responsável em relação ao futuro.
Uma Inteligência Artificial muito
forte e dominante, se ficasse apenas nas mãos de interesses económicos e
ideológicos, produziria rapidamente uma pequena elite privilegiada e uma
maioria de “humanos inúteis” em que, num futuro não distante, o seu tratamento
com dignidade poderia ser considerado um estorvo (isto num Zeitgeist em que
certos parâmetros de qualidade de vida parecem querer sobrepor-se à vida!).
Todos se encontram a aprender,
mas as pessoas que criam tais tecnologias, no momento da sua aplicação deverão
estar conscientes de serem
responsabilizadas pelas consequências - incluindo o pagamento de indemnizações.
Programar também a ética
Será preciso programar nos
sistemas IA também planos de valores. As pessoas também usam as tecnologias
para explorarem os outros. Por isso é de grande importância não perder o
controlo sobre elas e sobre o seu uso.
A ditadura chinesa tem mais
trunfos na mão do que os sistemas democráticos ocidentais apesar das suas lóbis
contaminadas. Isto terá como consequência a elaboração de uma moral permeável
no Ocidente. Quem determina o ritmo da música é o capital e a indústria. Tudo
se está a formalizar em termos de viabilidade; as ideologias vão mudando e
surgindo conforme as necessidades.
Em todo o
discurso sobre a ética é, muitas vezes, esquecido que só é possível ética onde
houver diversidade. As tendências igualitaristas, hoje em voga, correspondem a princípios
antiéticos e antinatureza e correspondem ao suborno da liberdade e da natureza. Os padrões éticos e morais nunca são
universais, são sempre culturalmente determinados e profundamente enraizados
nas pessoas. Não é possível em pouco tempo a integração global de padrões
éticos universais como podemos verificar em relação aos direitos humanos. A
ética de que se fala aqui destina-se a proteger a pessoa humana da dependência
total de interesses anónimos da indústria e de robôs.
Os sistemas de inteligência
artificial correspondem a um poder computacional a que falta a alma humana.
Se na nossa sociedade já a
maioria dos cidadãos não tem uma ideia do porque pensa como pensa, devido à
distância intelectual para com os criadores de consciência social, então com a
IA só uma reduzida percentagem da população poderia pensar por si mesma. Se não se estiver atento nem nos
precavermos, teremos uma sociedade de alguns gigantes e uma massa de pigmeus!
No sistema atual ainda vamos tendo a ilusão de que a maior parte das coisas são
determinadas por nós mesmos, mas com a ainda utópica IA descontrolada até essa
ilusão desapareceria.
Como simples princípio de orientação ética poderiam ser as Leis da Robótica
(3) ou princípios idealizados por Isaac Asimov em 1950: (a) um robô não pode
ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.
(b) um robô deve obedecer às que lhe são dadas por um humano - a menos que tal
ordem colida com a regra um. (c) um robô deve proteger a sua existência desde
que esta protecção não colida com a regra um ou dois. (d) um robô não pode
causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum
mal.
Em princípio, na automatização, a deliberação deve ser
sempre da responsabilidade humana e não anonimizada. A comissão ética europeia
também se tinha pronunciado neste sentido (4).
© António da Cunha Duarte
Justo
Teólogo e Pedagogo
Pegadas do Tempo, https://antonio-justo.eu/?p=5417
(1) Manager magazine: https://www.manager-magazin.de/politik/artikel/china-soziale-kontrolle-durch-sozialkredit-punktesystem-a-1194590.html De notar que o Sistema de Crédito Social
de controlo na China aplica Big Data (para controlo rápido de dados) e ainda
não a IA. A criação e aplicação da IA terá consequências muito mais
abrangentes.
(2) Projecto da EU: https://ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai
(4)
European Group on Ethics in Science and New
Technologien: https://ec.europa.eu/research/ege/pdf/ege_ai_statement_2018.pdf
Sem comentários:
Enviar um comentário