Meu marido, que apagou sua existência da internet quando deixou a vida das turnês de shows de rock por uma nova carreira na indústria da saúde, foi perguntar ao Google se os algoritmos encontrariam seu nome como “marido da Suzana Herculano-Houzel”. A resposta do AI Overview do Google nos rendeu uma boa gargalhada: “Suzana Herculano-Houzel é casada com o neurocientista Jon Kaas. Ambos trabalham na Universidade Vanderbilt e colaboram fazendo pesquisa juntos”.
As duas últimas partes procedem, e são a razão de o meu nome ocorrer inúmeras vezes junto ao de meu amigo, colega e vizinho de corredor Jon Kaas, arquiteto-mor da minha transferência para os EUA nove anos atrás. Mas meu marido ele não é e nunca foi.
Por isso não compartilho do otimismo do meu outro amigo, Bernardo Monteiro, conselheiro regular desta coluna que outro dia me mandou, empolgado, uma matéria anunciando que cientistas da universidade Stanford haviam criado uma equipe de “cientistas virtuais” para resolver problemas reais no laboratório.
Ó céus. Nós cientistas já temos que dar duro para conferir e reconferir o trabalho dos nossos estudantes e até mesmo colaboradores (sempre tem erros e discordâncias, por várias causas), e agora eu tenho colegas escolhendo relegar busca e análise de dados e elaboração de relatórios a algoritmos cuspidores de sequências de palavras que comprovadamente geram fantasia?
A ironia é que justamente essa capacidade de um algoritmo produzir algo que funciona como linguagem bem o suficiente para ser usado como redator de relatórios e “artigos científicos” e até consultório sentimental é para mim a maior e mais importante contribuição para a humanidade dos algoritmos como o ChatGPT. Digo isso porque uma teoria persistente na estória da evolução humana é que a linguagem foi adquirida exclusivamente por nossa espécie graças a algum “estalo” evolutivo que teria tornado somente o cérebro humano capaz de formar sequências de sons com significados.
Colunas e Blogs
Receba no seu email uma seleção de colunas e blogs da Folha
O proponente mais renomado desta teoria é o linguista Noam Chomsky, quem para minha honra e surpresa me chamou para conversar uns oito anos atrás, quando visitei a Universidade do Arizona. Eu ingenuamente pensei que ele estaria interessado em ouvir diretamente de mim sobre minhas descobertas de que o cérebro humano era apenas mais um cérebro primata, mas não: ele apenas me explicou que eu estava errada.
E aí veio o ChatGPT, garoto-propaganda dos grandes modelos de linguagem, e mostrou que força bruta aplicada ao mapeamento probabilístico de associações entre sequências de eventos em enormes bases de dados basta para produzir algo que funciona como linguagem. Quanto mais capacidade de memória, mais tempo para treino e mais energia –as exatas três coisas que o córtex humano tem a mais comparado a outros–, melhor o desempenho. Neste aspecto, o ChatGPT demonstra que não é preciso um “estalo” para explicar a capacidade do cérebro humano de produzir sequências de palavras.
Já o significado das sequências produzidas por cérebro humano ou algoritmo são outros quinhentos, porque ter significado quer dizer representar alguma coisa: experiências, conhecimentos, expectativas, intenções e valores. Algoritmo não tem nada disso, não sabe nada, apenas reproduz associações. Nisso eu concordo com Chomsky: se não há significado, não é linguagem. E se quem produz sequências de palavras não conhece seu significado, o resultado pode até ser útil, se não apenas divertido –mas não pode ser levado a sério como substituto de significados gerados por humanos.