Não existe Inteligência Artificial, só Agentes de Inteligência Coletiva

Inteligência Coletiva

Não existe Inteligência Artificial, só Agentes de Inteligência Coletiva


Inteligência Coletiva
(série de 2 partes)

O Vale do Sílicio segundo as IA Generativas
Não existe Inteligência Artificial, só Agentes de Inteligência Coletiva

A maneira como vemos as coisas é definida pelo nome que damos a elas, por isso tentarei ao máximo não usar mais o termo “Inteligência Artificial” quando me referir ao que costumamos chamar de IA Generativa por dois motivos. Primeiro porque não é inteligência, segundo porque não é generativa.

Talvez você tenha ficado chocado com as duas afirmações da última frase do parágrafo anterior. Talvez porque você tenha pensando que o que chamamos de agentes, no fundo nem agentes são por isso me refiro a ferramentas, são muito inteligentes e dão respostas que aparentam ser humanas. Mas precisamos conversar sobre termos, entender o que convencionamos chamar de inteligência artificial, a qual se distingue qualitativamente da que eu estudei na faculdade como inteligência artificial, e entender porque não devemos chamar isso de inteligência. Se for pra levar na chacota, eu usaria o termo Papagaio Estatístico (Statistical Parrot, termo usado no paper On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜).

Essa IA não é como a de antigamente…

Não sei a sua idade, jovem leitor, mas um dos eventos chaves na história da IA foi o jogo de xadrez entre o Kasparov e o Deep Blue. Na Folha, em 1997, o fato foi anunciado com a frase “E a máquina venceu o homem” em uma alusão ao momento futuro na evolução das máquinas que se chama de singularidade (leia Deep Blue vence série contra Kasparov), ou seja, o momento na história em que as máquinas serão maiores e melhores que os seres humanos. A singularidade é uma especulação de um futuro hipotético, para mim, não passa de um sonho lúdico, ou na pior das hipoteses, o início de tempos obscuros em que um grupo de pessoas irá controlar outro através da tecnologia.

Mas voltemos ao Kasparov… a Inteligência Artificial que o derrotou o não era da mesma qualidade da inteligência artificial que usamos hoje! Aqui leia qualidade como substituto de natureza ou essência. Isso significa que os algoritmos são radicalmente diferentes. O Deep Blue era uma máquina otimizada para busca em árvores, ou seja, os programadores criaram um modelo computacional do tabuleiro de xadrez e ficava a cargo do algoritmo gerar todos os possíveis movimentos que poderiam ser feitos e escolher qual era a melhor jogada. Caso queira conhecer mais leia o artigo Deep Blue system overview que descreve as caracteristicas da máquina Deep Blue e o histórico até se chegar a esse momento apoteótico. O Deep Blue fazia buscas em árvores de possíveis jogadas e não há nada mais clássico que isso na inteligência artificial.

Olhando por outra perspectiva, acho meio injusto chamar essa disputa do Kasparov de “Humanidade vs Máquina”, porque a máquina é uma construção humana! O que na verdade viámos era uma pessoa, munida de apenas o seu intelecto disputando uma partida contra um algoritmo de busca refinadíssimo e com uma heurística aprimorada. Nas isso sim é um momento apoteótico porque Charles Babbage já tinha pensado que sua máquina analítica poderia no futuro jogar xadrez. É como um ciclo de 150 anos se fechasse, mas não significa que a máquina era melhor que o humando, já que os algoritmos e a heurística são também construções humanas. Eu inclusive já implementei algoriritmos parecidos e caso você queria jogar Jogo da Velha contra meu MimiMax, sinta-se a vontade. Logo, o que aprendemos com essa história não é que a máquina desafiou o homem, mas que xadres é um jogo burro, como diria o professor Valdemar W. Setzer. Nós criamos a máquina, codificamos as regras do xadrez e escrevemos algoritmos de escolhas para assim dizermos que ensinamos a máquinas a jogar.

Se você for estudar a fundo o que se chamava de Inteligência Artificial até o começo dos anos 2000, verá que esses algoritmos clássicos eram extremamente especializados e não podiam ser adaptados para outras funções. Eles partiam do pressuposto que a inteligência era uma busca de uma solução dentro um conjunto de possibilidades baseado em uma heurística, ou seja, em uma função de avaliação e tudo dependia do fator de branching do problema, da quantidade média de possibilidades geradas a cada iteração.

O Perceptron e uma outra abordagem

Mas se voltarmos na história do Deep Blue, podemos reparar que a máquina só conseguiu uma certa superioridade em cima do humano depois de uma grande evolução no poder de processamento. Os algoritmos já estavam prontos, mas não havia poder de processamento para colocar eles em funcionamento. O mesmo aconteceu com Machine Learning, que é o que costumamos chamar de IA hoje. Por muitos anos esse tipo de tecnologia foi desacreditado e teve pouca influência do debate público, alguns chega a se referir a esse periodo como o “inverno da IA”. Eu me recordo que enquanto estudava IA no Instituto de Computação da Unicamp em algum momento entre 2004 e 2006, essas tecnológias não mereceram nem uma aula completa, foram mencionadas como nota de rodapé ao final do curso. Mas isso não significa que a tecnologia é nova, muito pelo contrário. Ela foi descrita em 1958 por Frank Rosenblatt no livro “The Perceptron: A Theory of Statistical Separability in Cognitive Systems”, e na discussão já se fala sobre o reconhecimento de padrões. Aqui quero citar o trecho de um artigo de 1961 que descreve como esses sistemas trabalham.

Esse tipo de projeto parece ter alguma aplicabilidade a uma variedade de máquinas mais “inteligentes”. O programa substitui o programador-analista por um operador programado que primeiro gera operadores que fazem uso suficientemente eficaz dos valores de entrada desconhecido e, em seguida, utiliza o feedback sobre o sucesso desses novos operadores no mapeamento de entradas desconhecidas, a fim de aumentar sua eficácia. Assim, nem o programador nem o programa precisam saber nada específico sobre o problema com antecedência. O programa realiza, como parte de sua rotina natural, a coleta, a análise e a inferência de dados que normalmente são deixadas para o programador.

A pattern recognition program that generates, evaluates, and adjusts its own operators

Apesar do artigo ter 64 anos, o trecho em destaque descreve o que hoje chamamos de modelo e essa dinâmica não se alterou. Óbvio que tivemos grandes avanços na forma como esse modelo é treinado e projetado, posso citar o algoritmo backpropagation, as arquiteturas de deep learning, mas foi um processo lento e gradual que se torna maduro nos anos 2010 graças a enorme de quantidade de dados disponível para treinamento e uso. É possível sempre voltar a definição inicial porque algo essencial não mudou: o mapeamento de entradas desconhecidas!

É possível se criar algoritmos de aprendizado de máquina sem ter uma entrada mapeada. Esse campo de pesquisa se chama unsupervised learning, ou seja aprendizado não supervisionado. Os algoritmos de unsupervised learning são usados para descobrir agrupamentos e relacionamentos entre dados. Mas para que esses algoritmos sejam eficientes é preciso que existam dados. Dados são essenciais para qualquer algoritmo de aprendizado de máquina pois a máquina irá reconhecer padrões entre os dados.

A diferença qualitativa entre Machine Learning e Inteligência Artificial Clássica

Aqui, me dê a liberdade argumentativa de diferenciar o que chamamos de Machine Learnig de Inteligência Artifical. Essa diferenciação é essencial para entender porque esses algoritmos são uma forma de inteligência coletiva.

Esse pequeno resumo histórico é necessário para se pontuar dois elementos essências no entendimento dos algoritmos. O primeiro se referem a natureza desses algoritmos e o segundo a história deles.

Sobre a natureza desses algoritmos, vemos que os algoritmos clássicos tentavam criar uma forma analítica de solução do problema. Ao jogar xadres, o Deep Blue listava todas as possíveis possibilidades, pontuava elas e escolhia qual jogada era mais vantajosa para chegar ao seu objetivo: ganhar o jogo. O Deep Blue conseguia ver o problema como um tudo e conseguia “racionalizar” em cima de todas as possíveis alternativcas. Coloco racionalizar entre aspas porque essa é uma forma moderna de ver o modo como pensamos. Na verdade, nós, humanos, não racionalizamos. Racionalizar é caro, cansativo, trabalhoso. Em nossas tarefas do dia a dia não pensamos em todos os passos. Nós, humanos, temos subconsciente, desenvolvemos empatia, intuição, fazemos julgamentos morais, religiosos e, até mesmo, decisões afetivas e sexuais. Nós somos muito mais complexos que uma mera máquina. Esses dias, por exemplo, estava jogando um jogo de tabuleiro com meu filho e deixei ele ganhar algumas vezes para não o deixar frustrado. A máquina não desenvolveria esse tipo de empatia.

Já os algoritmos de aprendizado de máquina não racionalizam em cima do problema, mas identificam um padrão e tentam criar uma função de transferência entre uma entrada conhecida e a saída desejada. Algoritmos de Machine Learning podem ser vistos como uma grande regressão linear polinomial com esteróides. A máquina não tem empatia, não desenvolve julgamentos morais ou religiosos, não tem desejos sexuais e nem relações afetivas. Tudo que a máquina faz é identificar padrões e codificar eles. Os modelos são criados e armazenado em um conjunto enorme de parâmetros que podem alimentar máquinas que codificam e decodificam as entradas do usuário. O artigo Attention Is All You Need descreve esse comportamento.

Por outro lado, precisamos desmitificar o grande salto tecnologico dos últimos anos. Não houve, entre 2019 e 2024 uma explosão de criatividade, mas o ponto de maturidade de algo que estava há anos sendo gestado. É o momento em que a criança nasce depois de 9 meses de gestação. O que começou lá em 1958 na marinha estadunidense virou um produto comercial que parece racionalizar, nas na verdade nada mais é que um modelo condensado do conhecimento humano mapeado.

Modelos são criados coletivamente

O que convencionamos chamar de IA Generativa na verdade é construido coletivamente. Quando eu faço uma pergunta sobre temas que eu trabalho diariamente, uma parte infima do meu trabalho está sendo utilizada para gerar a resposta que eu preciso. Não ache que esse post está sendo lido apenas por humanos curiosos. Existem diversos agentes de autonomos lendo e processando o conteúdo disponível na internet. Depois, humanos explorados são usados para mapear e interpretar essas informações.

A IA Generativa consegue gerar uma imagem ao estilo Picasso, porque primeiro existiu um Picasso, depois porque alguém colocou etiquetas em todas as obras do Picasso e por fim porque alguém descreveu o estilo do Picasso. Essa máquinas não conseguem fazer algo altamente inovador. Elas não dão saltos de genialidade. E no mais, eles precisam de algo que nem elas conseguem fornecer: o prompt. No fim, elas nem conseguem se comportar como agente automatos, elas respondem a estimulos externos.

A grande invenção dos últimos 80 anos não são modelos que codificam a inteligência coletiva, mas essa grande biblioteca virtual chamada internet. Ironicamente, os maiores defensores da IA atacaram duas das principais instituições da internet: o Internet Archive e a Wikipedia. E isso se dá porque o maior competidor para os modelos de inteligência coletiva é o pensamento enciclopédico.

Os modelos de inteligência coletiva, e eu vou repetir isso quantas vezes precisar, se alimentam do conhecimento estruturado para gerar oráculos digitais. Uma enciclopedia tem a mesma função social do oráculo: dar respostas. Mas ao mesmo tempo uma modelo não consegue representar a totalidade do conhecimento porque ele é limitado, ele é estatístico, ele tem viés e por fim, ele é meramente linguístico.

Ver essas ferramentas como uma consolidação da inteligência coletiva tem grandes implicações politicas e econômicas que não estão sendo discutidas. Tudo bem que a OpenAI conseguiu colocar no ar o primeiro dos modelos comerciais. Mas ele não é uma construção da OpenAI e nem de qualquer outra empresa que coloque os seus modelos no ar. Tanto a engenharia por trás desse modelo é uma construção de decadas e séculos de estudos em matemática, estatística e computação, quanto o conteúdo na qual esses modelos foi treinado é uma construção de milênios de conhecimento acumulado.

Talvez você não saiba, mas quando você escrevia algumas letrinhas para identificar que você era você em algum lugar da internet entre 2010 e 2014, você estava ajudando a transcrever livros antigos. Depois, caso você não tenha percebido, esses testes mudaram para encontrar bicicletas, faixa de pedestres, semaforos, onibus e, quiçá, a Sarah Connor em fotos de ruas. Essa mudança aconteceu porque finalizada a transcrição dos livros, o próximo problema computacional era compreender imagens e pagar para pessoas fazer isso manualmente é impraticável. OK. OK… Eles pagam em alguns casos como você pode ver em uma série de reportagens como Brasileiros ganham frações de centavos para melhorar sua inteligência artificial ou Para dar lucro, a IA precisa de babás humanas. Você pode até argumentar que eles estão sendo remunerados por esse trabalho, mas é como você receber uma migalha de um carrasco.

A promessa de mudar radicalmente o mundo do trabalho é falsa porque foi o mundo do trabalho que gerou essas inteligências. Não é correto substituir trabalhadores gratuitamente por máquinas estatísticas sem remunerar os grandes criadores dessa inteligência que somos TODOS NÓS!

Licença Creative Commons
Este obra está licenciado com uma Licença Creative Commons Atribuição-NãoComercial-CompartilhaIgual 4.0 Internacional .

Inteligência Coletiva
(série de 2 partes)

O Vale do Sílicio segundo as IA Generativas
Não existe Inteligência Artificial, só Agentes de Inteligência Coletiva