Tecnologia

Humanamente Digital – Inteligência artificial centrada no humano

Humanamente Digital

Autor: Cássio Pantaleoni

Ideias centrais:

1 – Para que a IA seja inteligente, ela precisa simular o modo como os humanos são capazes de aprimorar a maneira de fazer as coisas. Dito de outra maneira, as máquinas precisam ensinar a si mesmas a lidar com novos comportamentos.

2 – No Canadá, o Council for Artificial Intelligence Technologic Strategy fundamentou em 2016 os princípios de uma inteligência artificial centrada no humano.

3 – A cultura é o que nos torna inteligentes, principalmente pela notável capacidade de reunir e construir conhecimento aprendido. Humanos não possuem hardware e nem rodam software. Humanos funcionam com base em humanware.

4 – O desempenho da NLP (Natural Language Processing) alcançou níveis extraordinários quando a OpenIA criou um modo preditivo de linguagem de 3ª geração: o GPT-3. A qualidade dos textos gerados pelo GPT-3 é tão alta que chega a ser difícil identificar se foi escrita por um humano ou não.

5 – A suposição de que haverá um momento na evolução da tecnologia em que a inteligência das máquinas [superinteligências] crescerá de maneira incontrolável e irreversível popularizou-se pela expressão singularidade.

6 – Ao final de 2021, estimava-se que 77% dos consumidores eram expostos à Inteligência Artificial regularmente, em ou mais dispositivos. Um artigo de 2020, escrito pelo jornalista Aaron Brooks, registrava que 61% dos profissionais de marketing endossavam a IA para aumentar a produtividade de suas áreas.

7 – Se, de um lado, os investimentos para produzir máquinas capazes de atingir o nível de superinteligência são imensos, de outro, permanecem algumas perguntas sem resposta. Como a IA suportará a equidade, a inclusão e a diversidade? Como ajudará nas questões climáticas? Na educação?

Sobre o autor:

Cássio Pantaleoni é um aficionado da tecnologia, vendo nela resultados surpreendentes, mas também seus pontos críticos. Ocupou posições executivas em grandes empresas de software, desde 2008. É mestre em Fenomenologia e Hermenêutica pela PUC-RS e é graduado em filosofia com complemento em psicologia pela mesma instituição. Criou o primeiro curso executivo de Humanismo Digital no Brasil.

Introdução:

É impossível ficar indiferente aos avanços da inteligência artificial. Mesmo que deliberadamente nos esforcemos para ignorá-la, ela nos cerca e provoca a nossa curiosidade. Algumas das conquistas mais recentes da IA incluem modelos de processamento de linguagem autorregressivos que usam Machine Learning (ML) para produzir textos como se fossem agentes humanos. Algoritmos treinados a partir de parâmetros de ML efetuam a predição de uso de várias palavras e de estruturas de sentenças capazes de conceder sentido tal qual os seres humanos são capazes de fazer, respondendo a questões escritas ou gerando textos inéditos.

Em razão do poder exuberante da tecnologia digital, contudo, o pensamento crítico acerca dos impactos sociais alcança o estatuto de questão urgente. Antes de tudo, é preciso tomar ciência de que o processo de digitalização não está promovendo igualdade no mundo. Pelo contrário, na medida em que o espaço digital se torna quase que algo não opcional, para aqueles indivíduos que se encontram à margem ou que ficam reféns da falta de compreensão dos impactos da revolução digital, a tecnologia os esquece ou os deixa à deriva. Isto define a pauta sobre os direitos humanos na era digital, colocando o humano e o planeta como objetivo central do desenvolvimento tecnológico.

Capítulo 1 – Por que pensar Humanismo Digital?

Há alguns anos, tanto os gigantes da tecnologia quanto grupos acadêmicos e empresas de consultoria trataram de definir princípios para o desenvolvimento da IA, visando mitigar possíveis inadequações advindas da capacidade de automação da tecnologia. No campo do reconhecimento facial, em particular, há consenso de que é indispensável uma espécie de curadoria não só para os princípios de uso, mas também para o desenvolvimento. Dado que os algoritmos de IA ocasionalmente produzem respostas incompatíveis com a ética da diversidade, o assunto se tornou disciplina em constante revisão.

Em novembro de 2021, James Presenti, VP de Inteligência Artificial da Meta (antigo Facebook), reportou o desligamento do sistema de reconhecimento facial da empresa, implicando na exclusão de bilhões de referências a faces de pessoas de suas bases de dados. Presenti declarou então: “Precisamos ponderar os casos de uso positivos para o reconhecimento facial à luz das crescentes preocupações da sociedade, especialmente em razão de que os reguladores ainda precisam fornecer regras claras.”

Governos também assumiram posição. Bélgica e Luxemburgo, por exemplo, foram pioneiros em banir o uso de softwares de reconhecimento facial em seus territórios. Algumas cidades americanas seguiram depois o mesmo caminho.

A utilidade da IA para facilitar as nossas vidas é ampla e indiscutível. Mas há questões subliminares a tratar. Quem está no comando? Com que intenção? As máquinas não falham?

Para responder a estas e outras tantas perguntas é preciso entender algumas particularidades da IA. O paradigma essencial deste tipo de algoritmo é o aprendizado de máquina (machine learning – ML), sobre o qual já fiz rápida menção. Para que a IA seja “inteligente”, ela precisa simular o modo como os humanos são capazes de aprimorar o modo de fazer as coisas. Dito de outra maneira, as máquinas precisam ensinar a si mesmas a lidar com novos comportamentos, que são essencialmente interpretados a partir dos dados registrados. Para tanto, o algoritmo precisa ser desenvolvido com técnicas que evitem sua obsolescênciam garantindo ajuste contínuo e em tempo real. Isto é alcançado pela capacidade da máquina de usar dados novos com o intuito de aprender estratégias para cumprir um objetivo.

O caso do software de IA criado pelo time de desenvolvedores da Amazon de Edimburgo, em 2014, ilustra como os vieses podem provocar resultados indesejados.

A ferramenta foi criada para auxiliar os recrutadores da empresa no processo de escolha de candidatos. Usando NLP (Natural Language Processing), o software escrutinava centenas de currículos com base em um histórico de 10 anos sobre as decisões de escolha feitas por agentes humanos. Membros da equipe responsável pelo projeto afirmaram que a IA rapidamente ensinou a si mesma que candidatos masculinos eram preferíveis. Além do mais, currículos que continham qualquer referência à palavra mulher eram deliberadamente penalizados.

Uma análise mais detalhada constatou que, no histórico usado para treinar o site, prevaleciam escolhas feitas por recrutadores do sexo masculino. Supostamente, estes recrutadores associavam termos como “execução” e “aprendizado” a características predominantemente masculinos.

Ao colocarmos o digital como centro desta relação com os humanos, corremos o risco de delegar ao digital todas as decisões, como se lá estivesse toda a verdade. Uma sociedade estabelecida como mero entorno deste grande motor digital energizado pela IA perde a capacidade de pensar criticamente. Isto implica uma questão ética fundamental, como por exemplo a possibilidade de obliterarmos o pluralismo moral e cultural.

Capítulo 2: Inteligência Artificial e Humanismo

A história da IA ajuda a compreender o potencial atual desta tecnologia. Também serve para emoldurar o tema do humanismo digital com a urgência que o assunto merece. As conquistas e hesitações que dão colorido à história da IA nos permitem reconhecer tanto os paradigmas como os paradoxos que enriquecem, aquecem e alongam os debates atuais sobre os seus efeitos na escala da sustentabilidade econômica e social.

Ainda que seja difícil crer que o filme [Mágico de Oz] tenha influenciado cientistas e filósofos, é curioso o fato de que o debate entre o Homem de Lata e o Espantalho acontecesse como prelúdio das possibilidades matemáticas da inteligência artificial imaginada por Alan Turing, o jovem polímata britânico que formalizou os conceitos de algoritmo e computação. Em uma das cenas do filme, um debate mediado por Dorothy – a menina órfã levada por tornado para o mundo de Oz – quer decidir o que tem função mais nobre: o coração, desejado pelo Homem de Lata, ou o cérebro, desejado pelo Espantalho.

O surgimento dos desktops da Apple e da IBM encaminhou o colapso dos hardwares especializados, e centenas de empresas de desenvolvimento de IA fecharam. O período compreendido entre 1987 e 1993 fez as pesquisas perderem prioridade na luta pela verba destinada à área da tecnologia.

O quadro favorecia as críticas de muitos cientistas aos modelos de processamento baseados na razão simbólica. Assim, uma nova tese passa a ocupar os pesquisadores: o corpo é essencial para a razão – a chamada Teoria da Mente Corporificada. Seria um deferimento em favor do coração do Homem de Lata?

O manifesto de 2010 no THAT Camp pretendia alertar para o fato de que o contexto social, diante da crescente relação humana com as tecnologias digitais, promove o cultivo de valores, crenças e comportamentos que ameaçam deslocar o humano para a periferia desta relação, fomentando uma cultura onde o digital poderia assumir o papel central. Os participantes daquela conferência certamente já compreendiam que, ao nos colocarmos em órbita do digital, a nossa cultura sofre uma distorção perigosa.

A inciativa do Canadá, uma das primeiras nações a implementar um conselho em torno do tema, merece destaque. O Council for Artificial Intelligence Technology Strategy fundamentou em 2016 os princípios de uma Inteligência artificial centrada no humano. Desde então, o Canadá busca assumir o papel de liderança na pesquisa sobre as implicações éticas e sociais da IA.

O que é preciso destacar é que falar de IA ética é tratar de reconsiderar a discussão naquele que projeta, desenvolve e usa os motores de inteligência artificial. Ensinar ética aos algoritmos ou exigir critérios a posteriori não é viável. Os critérios precisam ser verificados a priori, ou seja, naquele que é responsável pelas técnicas de produção da IA, seja enquanto as aperfeiçoa, seja quando as utiliza para desenvolver a “máquina”.

Capítulo 3: Humanos e superinteligências

A linguagem é a empunhadura humana para criar e nossa maior criação é a cultura. As características verdadeiramente distintivas da humanidade – nossa linguagem, nossa inteligência, nossa cooperação – são respostas adaptativas às atividades culturais de nossos ancestrais. E a cultura é o que nos torna inteligentes, principalmente pela notável capacidade de reunir e construir conhecimento aprendido.

Humanos não possuem hardware e nem rodam software. Humanos funcionam com base em humanware.

Muitas pesquisas foram feitas com o uso de ML para dotar a IA com os recursos da linguagem humana. Desde 2010, os cientistas treinam modelos para usar linguagem como nós usamos, com base em uma gigantesca coleção de exemplos. Esta área de estudo é denominada Natural Language Processing (NLP).

A NLP usa modelos baseados em deep learning que são chamados de transformadores. Os transformadores são capazes de fazer tradução ou sumarização de textos, usando um mecanismo de atenção que contextualiza qualquer posição das palavras na sentença na qual elas aparecem.

O desempenho da NLP alcançou níveis extraordinários quando a OpenAI – um laboratório de IA baseado em São Francisco, criou um modelo preditivo de linguagem de 3ª geração: o GPT-3. Os GPTs (Generative Pretrained Transformer) foram originalmente desenvolvidos pela própria OpenAI em 2018 e são aperfeiçoados desde então. A qualidade dos textos gerados pelo GPT-3 é tão alta que chega a ser difícil identificar se foi escrita por um humano ou não. O The New York Times a descreveu como capaz de escrever textos de prosa com a fluência equivalente à de um humano.

A suposição de que haverá um momento na evolução tecnológica em que a inteligência das máquinas crescerá de maneira incontrolável e irreversível, popularizou-se pela expressão singularidade. Há muitos livros de ficção que capitulam esta hipótese, todos adornados por elementos dramáticos que instigam o imaginário coletivo com base em “fortes” indícios. A trama destas histórias faz alusão à singularidade por meio do arquétipo de um dispositivo com recursos muito sofisticados de inteligência artificial. Tais capacidades fazem a máquina adquirir consciência e, assim, ostentar capacidades sobre-humanas, uma superinteligência que dispensaria os humanos.

A singularidade requer (ainda que isto seja bastante questionável) que a IA seja capaz de interpretar o mundo de maneira muito semelhante aos humanos. Primeiro porque a ideia de uma busca pela síntese absoluta que subsidiaria o acontecimento da inteligência explosiva faz alusão à teleologia da inteligência suprema – uma divindade similar àquela representada no conto A última questão, de Isaac Asimov. Naquele conto, um computador superinteligente resta sozinho em um universo onde todas as estrelas estão morrendo, tentando responder à questão formulada por seus criadores: o que acontecerá após a morte térmica do Universo?

Tendo fortemente a concordar com o pesquisador canadense Brian Smith, da Universidade de Toronto, especialista em Inteligência Humana e Artificial. Nas palavras de Smith, na introdução de sua extraordinária obra The Ppromise of Artificial Intelligence: reckoning and judgment. “Nem mesmo deep learning [ou ML] ou outras formas de IA de segunda geração ou mesmo quaisquer propostas avançadas para a terceira geração de IA, nos conduzirá para a inteligência genuína.” E a razão é simples: não é possível qualquer superinteligência sem que exista compromisso existencial; sem a genuína referência aos objetos do mundo; sem o acesso aos esquemas ontológicos; sem a capacidade de interpretação com responsabilidade ética. E é bom não esquecer, todos são aspectos possibilitados pela linguagem.

Yuval Harari, professor da Universidade de Jerusalém, em seu best-seller Homo Deus, ressalta o discurso messiânico reverberante ouvido no Vale do Silício fazendo uma referência sarcástica ao futurista Raymond Kurzweil, que reveste o tema da singularidade como a proximidade do reino dos céus. O sarcasmo se torna possível porque toda a analogia que quer representar nossa mente como se fossem computadores digitais, ou como um arranjo algorítmico de sofisticação reproduzível, simulando neurônios, é um exagero.

Para admitirmos um evento tal como a singularidade tecnológica – com sua suposição de um desenvolvimento explosivo da inteligência que superará a dos humanos –, os sistemas, as máquinas, os dispositivos ou as redes superinteligentes precisarão explicar efetivamente os objetos, suas propriedades e relações. Os sistemas também precisarão ter uma habilidade natural de encontrar intelegibilidade no mundo em seus próprios termos.

Capítulo 4: Humanismo na perspectiva dos negócios digitais

De acordo com relatório da UNCTAD, os dados de 2021 apontavam que 80% de todo o tráfego da internet estaria relacionado a vídeos, redes sociais e jogos. O mesmo relatório previu o aumento do tráfego global mensal de dados de 230 hexabytes em 2020 para 780 hexabytes em 2026. Só para se ter uma ideia da dimensão desse tráfego, isso equivaleria ao download da memória de 6,5 bilhões de unidades de consoles de Playstation 5.

Ao final de 2021, estimava-se que 77% dos consumidores estavam sendo expostos à Inteligência Artificial regularmente em um ou mais dispositivos. Um artigo de 2020, escrito pelo jornalista Aaron Brooks, registrava que 61% dos profissionais de marketing endossavam a IA para aumentar a produtividade de suas áreas, permitindo refinar a estratégia dos negócios de maneira mais avançada. E não é para menos. A inteligência artificial permite analisar textos, notas, e-mails, chats e voz com maior velocidade e maior precisão para identificar tendências e anomalias.

O gigante egoísta, de Oscar Wilde, serve como metáfora para um dos maiores desafios que a IA nos impõe, especificamente quando se trata do uso de técnicas de deep learning, que é uma subdivisão das redes neurais. Porque, veja, dentro dos paradigmas anteriores à Narrow AI, era possível não apenas prever o que o programa faria, mas compreender as instruções que o código utilizava para cumprir o seu objetivo. Mas quando estamos diante de sistemas que usam deep learning, tudo o que podemos obter é uma explanação dos resultados do sistema, mas não uma prova de como ele funciona. É uma caixa preta. Ou seja, as redes neurais profundas, não nos possibilitam conhecer como todos os neurônios individuais atuam de maneira integrada para chegar aos resultados e nem sempre fica claro o que um neurônio em particular está fazendo por conta própria.

A verdade é que um contingente significativo de sistemas de IA desenvolvidos até então já alcançou certo nível de maturidade para serem utilizados e distribuídos na oferta de produtos e serviços digitais. Evidentemente, isto não nos exime da responsabilidade de enriquecer as discussões sobre a necessidade de bem regulamentar a IA. É preciso compreender os efeitos de sua interoperabilidade, assim como sua confiabilidade e transferência. Até o início de 2022, a Comissão Europeia vinha protagonizando as discussões propondo uma classificação dada pelos métodos algorítmicos utilizados, pelos recursos disponíveis e o nível de criticidade, num esquema tridimensional. De certo modo, o modelo é pensado a partir das dimensões éticas propostas pela Datenethikkomission der Bundesregierung de Berlim, em 2019.

Dar a um sistema de IA a responsabilidade de decidir o uso de armas em situações extremas sem que haja uma concepção ética a priori universalmente aceita pode realmente causar danos irreversíveis.  Mesmo que a concepção ética seja razoável, não há nada que garanta que a inteligência artificialsimplesmente opere para cumprir seu objetivo sem qualquer hesitação. Em outras palavras, a maior urgência é que os muros deste gigante egoísta sejam derrubados para que o humano retorne ao centro das zonas obscuras da IA.

O momento primaveril que a IA alcançou em função da revolução dos dados convive com o outono de um mundo paradoxalmente mais frágil do que supúnhamos. Este equinócio das tecnologias digitais produz a acareação entre o entusiasmo do Vale do Silício e as incertezas sobre um mundo predominantemente digital. Se de um lado, os investimentos para produzir máquinas capazes de alcançar o nível de uma superinteligência são imensos e contínuos, de outro, algumas perguntas permanecem sem resposta. Como a IA suportará a equidade, a inclusão e a diversidade? Como melhorará a educação? Como ajudará nas questões climáticas? E, antes que você imagine que estas perguntas são ultrapassadas diante de muitos avanços nas pesquisas, lembre-se que o paradoxo da IA é a automatização. É outra dimensão do equinócio. Neste aspecto, a automação nos isenta de efetuar reflexões críticas, centralizando as decisões nos grandes centros de desenvolvimento da IA.

A primavera de hoje é prólogo do outono, porém na precessão dos equinócios sempre haverá outonos, que serão os prólogos de novas primaveras. A tecnologia não é a vilã. É a falta de responsabilidade com as questões necessariamente humanas que nos ameaçam; não importa o quão boa a tecnologia seja.

Ficha Técnica - Humanamente Digital

Ficha técnica:

Título: Humanamente Digital – Inteligência artificial centrada no humano

Autor: Cássio Pantaleoni

Primeira edição: Unità-editora

Resumo: Rogério H. Jönck

Edição: Monica Miglio Pedrosa

  • Aumentar texto Aumentar
  • Diminuir texto Diminuir
  • Compartilhar Compartilhar