IA e Espiritualidade: artificialidade ou realismo?


Espiritualidade no trabalho é um tema escorregadio. Para evitar derrapagens: espiritualidade não é religiosidade. Ateus e agnósticos podem ser dotados, mesmo inconscientemente, de espiritualidade. Simetricamente, a empresa que, explícita ou implicitamente, faz pressões religiosas viola a espiritualidade dos colaboradores. Respeita-se a espiritualidade quando as pessoas são tratadas com dignidade e respeito (designadamente no que concerne à vida interior – e cada um tem a sua!), realizam trabalho com significado para as suas vidas, e sentem que a organização é uma comunidade de trabalho e não uma arena. O nexo entre espiritualidade e inteligência artificial (IA) não é, pois, artificial.

Tudo que é potencialmente bom (mesmo o amor!) pode ser mau se for indevidamente usado. A IA não é exceção. Máquinas superinteligentes permitem identificar tendências e tomar decisões a partir de quantidades gigantescas de dados que o humano não consegue processar. Podem ser auxiliares preciosos em decisões complexas, em diagnósticos médicos, e na medicina de precisão personalizada. Podem contribuir para melhorar o mundo – como os fundadores da OpenAI esperam. Mas são desprovidas da emoção, da intuição, da sabedoria e da sensibilidade ética que os humanos detêm (ou podem deter). Como Damásio referiu (Expresso E, 05 nov. 2017), “fazer com que criaturas tenham comportamentos é uma coisa, fazer com que criaturas tenham sentimentos é outra”.

Máquinas superinteligentes podem gerar decisões absurdas que escapam às intenções dos seus criadores – após libertar o monstro, é difícil voltar a metê-lo no frasco. Essas máquinas podem tomar decisões estúpidas, ou mesmo catastróficas. Uma app da Google classificou imagens de pessoas negras como gorilas. Erros similares ocorreram com software de equipamentos da Nikon e da HP. Software usado para avaliar o risco de reincidência em criminosos revelou-se enviesado contra negros. Cientistas da Carnegie Mellon University descobriram que as mulheres tinham menos probabilidade de receber anúncios, na Google, para posições altamente remuneradas.

Erros como os descritos são, presume-se, involuntários. Mas, até serem (e nem sempre o são) descobertos, causam danos. Acresce que os humanos contêm em si o gérmen do bem e do mal. A IA pode ser instrumentalizada de modo perverso, ferindo a espiritualidade (chame-lhe dignidade, se preferir). Empresas chinesas de vários setores recolhem dados sobre o cérebro dos trabalhadores através de tecnologia imbuída nos seus bonés ou capacetes que permite captar ondas cerebrais e estados emocionais. Os dados são usados para ajustar o ritmo da produção e redesenhar os fluxos de trabalho. Segundo o South China Morning Post (29/04/2018), “a tecnologia está a ser alvo de uso generalizado em todo o mundo, mas a China está a usá-la numa escala sem precedentes nas fábricas, nos transportes públicos, nas empresas estatais e nas organizações militares para aumentar a competitividade da sua indústria e para manter a estabilidade social”. Sublinhe-se a expressão “para manter a estabilidade social”!

A Fortune deu conta (17/02/2016) de que empresas norte-americanas estavam a usar big data (sobre compra de certos bens ou determinadas consultas médicas) facultada por empresas especializadas para prever a percentagem de colaboradoras que poderão engravidar brevemente. Embora sendo ilegal identificar as mulheres visadas, a Fortune acrescentava o risco de as empresas sucumbirem à tentação. James Hodge (Arizona State University) acrescentou: “Se um empregador antecipa que 15% das empregadas podem engravidar, mas os dados sugerem um valor próximo de 30%, é possível que não contrate mais candidatas nesse ano…”.

Empresas especializadas em recrutamento e seleção prometem diagnósticos de personalidade de candidatos, baseando-se em dados sobre tom de voz, expressão facial e outros gestos. Outras empresas prometem mesmo identificar potenciais criminosos. Os fundamentos científicos são mais do que sofríveis. Mas a tecnicidade dos sistemas ilude os incautos que se deslumbram com argumentos (pseudo)científicos. Uma quantidade progressiva de empresas implementa sistemas de controlo e vigilância dos comportamentos dos empregados que, segundo Elizabeth Anderson (Private Government, Princeton University Press, 2017), redundam em sistemas de gestão “ditatoriais comunistas”.

Os abusos antes referidos (especialmente problemáticos para colaboradores menos qualificados e desprovidos de poder negocial) não resultam necessariamente da perversidade intrínseca da IA – antes emergem do modo como esta é usada por humanos mais pródigos em “inteligência artificial” (como referiu Damásio) do que em inteligência emocional. O foco na dignidade humana nunca deve ser perdido de vista. Os avanços tecnológicos devem ser interpretados a essa luz. Os méritos da ciência e da tecnologia devem ser encarados com confiança vigilante e não acrítica. Como escreveu Steven Johnson em Farsighted, “o modo mais fácil de se estar errado é estar seguro de que se está certo”.

Por: Arménio Rego, LEAD.Lab, Católica Porto Business School

Scroll to Top