sexta-feira, 1 de março de 2024

5037) Inteligência Artificial e o mundo do faz-de-conta (1.3.2024)



(Journal Wired)
 

Esses softwares recentes de Inteligência Artificial (nem tão recentes assim, na verdade – quando algo chega ao conhecimento do grande público, é porque já é moeda corrente nos laboratórios há décadas) estão nos empurrando na direção de um barranco cuja altura somos incapazes de prever, bem como o que pode haver lá embaixo.
 
O deep-fake capaz de mostrar, ao vivo e em cores, qualquer pessoa dizendo qualquer coisa, ou fazendo qualquer coisa, de modo indistinguível de uma imagem “real” está a cada ano, exponencialmente, muito mais aperfeiçoado.
 
Em sua versão mais ingênua e aconchegante, o deep-fake pode realizar a fantasia que William “Neuromancer” Gibson sugeriu há mais de trinta anos:
 
Daqui a dez anos, você vai poder entrar em lojas de Manhattan onde eles vão escanear você com um laser, apertar alguns botões, e lhe entregar uma cópia video-cassete de O Falcão Maltês onde sua imagem substitui a imagem de Humphrey Bogart. E vai ser digitalmente indistinguível do original.
(Journal Wired, Summer-Fall 1990, pág. 327, trad. BT)
 
(Essa fantasia é típica de Gibson e da época, misturando video-cassete e digitalização. O forte de Gibson é a imaginação tecnológica, não o conhecimento tecnológico. Ele diz que quando usou o conceito de vírus em Neuromancer, que foi escrito em máquina de escrever, pensava que todo mundo da área de Informática sabia o que era vírus de computador – e não sabiam.) 
 
A versão mais amedrontadora desse processo é sabermos que com a tecnologia disponível em 2024 já é plenamente possível produzir um vídeo em que o Presidente Biden, com seu rosto, sua voz, seus cacoetes, apareça declarando guerra à Rússia, ou ao Irã, ou à China. Ou o presidente Trump, etc etc, tanto faz. 


 
Ontem à noite estive assistindo um documentário sobre a guerra da Ucrânia, 20 Dias em Mariupol, de Mstyslav Chernov. Ele descreve o início da ofensiva russa sobre essa cidade, mostra os bombardeios, a entrada dos tanques no perímetro urbano, os hospitais cheios de feridos morrendo à mão dos médicos, o desespero de quem precisar fugir dali e não sabe como.
 
O filme tem seu lado documentarista, seu lado humanitário, e seu lado político. É claramente um trabalho com a intenção de interferir no modo como a guerra está sendo vista no mundo inteiro. 
 
As imagens dos cineastas ucranianos são mandadas para fora do país, divulgadas pela imprensa – e prontamente rebatidas pelas autoridades e pela imprensa da Rússia. “São atores contratados, não são feridos, não são médicos”. “Quem ganha a guerra da desinformação, ganha a guerra.” Isso virou lugar comum, desde aquela época da entrevista de William Gibson. Toda imagem pode ser fabricada e pode ser questionada. Toda entrevista pode ser construída e pode ser desmentida. 



 
Um dos pilares de credibilidade entre a comunidade internacional é o mundo acadêmico, e mesmo este não está vacinado contra o produto fake. Um dos casos mais rumorosos é o “Caso Sokal”, em que o professor de física Alan Sokal conseguiu publicar numa revista acadêmica um artigo completamente despropositado, escrito no academês ininteligível que virou um vício de muitos professores. 
 
O próprio Sokal desmascarou a farsa, dizendo que ela servia como um alerta – se as universidades estavam publicando coisas que não entendiam, e, pior, coisas deliberadamente absurdas, em quem podemos confiar? Na imprensa? Nos poetas? 
 
Aqui, o caso Sokal:
https://pt.wikipedia.org/wiki/Caso_Sokal


 
Isto me veio à mente lendo um artigo (em The Walrus) relativo à revista eletrônica Atlas Obscura, que frequento de vez em quando. Atlas Obscura é uma publicação (e editora) dedicada a “lugares ocultos, história inacreditável, maravilhas científicas, e prodígios gastronômicos”. Meu interesse nessas publicações não tem cunho científico; pouco estou ligando se aquilo é verdade ou não, e não trato como verdade. Trato sob a rubrica amplíssima de “Idéias Malucas Para Futuros Contos”. 
 
A revista publicava há anos matérias interessantes de um tal Blair Mastbaum, mas a certa altura alguém farejou um peixe podre e foi checar fontes. As matérias de Mastbaum eram falsas: pessoas que ele dizia ter entrevistado não o conheciam, livros citados eram inexistentes, e a reportagem em si era em cima de um fato imaginário. 
 
Na matéria de The Walrus que examina este caso, Michelle Cyca comenta um post de Blair Mastbaum onde ele cita a professora Jannifer Kramer (University of British Columbia), a qual nega com veemência conhecer o indivíduo ou ter-lhe feito declarações. Diz Michelle Cyca: 
 
Pesquisei uma citação atribuída ao famoso antropólogo Franz Boas e descobri que ela vinha de um livro de outro autor, escrito oito anos após a morte de Boas. O efeito geral daquele post era similar ao efeito daquelas imagens geradas por Inteligência Artificial onde aparece uma pessoa com dedos demais na mão. Quase convincente – mas não é. A professora Kramer comentou: “Parte das descrições provém de informações exatas, mas foram distorcidas ou lidas de maneira equivocada, e acabam produzindo resultados estereotipados ou mesmo ofensivos”. 
 
Blair Mastbaum não é uma Inteligência Artificial; ele foi pesquisado, investigado, existe de verdade. O que ele representa é uma nova maneira de pensar que está se alastrando tão aceleradamente que pode ser considerada “nova”, embora seja velha como o papiro ou a escrita cuneiforme. 
 
É a notícia-de-jornal inventada, por preguiça de pesquisar, desdém pela verdade, ambição de notoriedade, espírito anárquico, confiança na impunidade... São cientistas que plagiam cientistas, poetas que plagiam poetas, pintores que falsificam pintores, músicos que furtam idéias de outros músicos... Gente que atua num espaço profissional onde a Criatividade é um valor essencial, mas que descobrem um atalho que lhes permite não-criar. 
 
A Inteligência Artificial, ou pelo menos os softwares que estão na boca de todo mundo atualmente, são mais ou menos isso – sistemas sofisticados de varredura de tudo que foi estocado na memória das máquinas (bilhões de terabytes?), e a produção (automática, mecânica, impessoal, não-raciocinante) de pseudo-resultados. 
 
Mais do que “máquinas que pensam como gente”, o que estamos laboriosamente construindo, década após década, é uma humanidade composta de “gente que pensa como máquinas”. 
 
Na mesma entrevista de William Gibson que citei acima, ele conta um episódio bobo mas revelador, que não tem nada a ver com Inteligência Artificial, mas mostra um flash dessa zona intermediária entre humanos e máquinas. 
 
Numa sessão de autógrafos, um cara se aproximou de mim, depois que autografei o livro para ele, e disse: “Isto vai valer muito dinheiro depois que você morrer?”  E eu falei: “Uh, não posso saber. Talvez valha ligeiramente mais. ” Então ele perguntou: “Qual é sua idade?” Eu disse: “Ah, espere sentado.” Ele olhou para o livro, com uma expressão de tristeza sincera, e disse: “Sabe, eu pedi autógrafo esperando faturar alguma grana”, e se afastou. Ele não estava sendo cruel. Estava apenas sendo estúpido. 
 
Não acho que o cara fosse tão estúpido assim. Provavelmente é um cara que não gosta de ler, não sabe quem é “William Gibson”, mas já ouviu histórias de livros autografados que vendem por mil dólares, dez mil dólares. Seu único objetivo é ganhar dinheiro sem fazer força. Pessoas com esse perfil, com esse grau de desinteresse pela vida, com essa falta de curiosidade, de empatia, estarão um dia sentados numa mesa, com uma Inteligência Artificial à sua disposição, para executar qualquer tipo de tarefa – escrever obras literárias, inclusive. Esta é uma das facetas mais importantes do atual perigo, e o perigo é real.   
 
 
 




Um comentário:

  1. Para ser sincero, tenho plena certeza que isso já está em curso no nível do fandom. Assim como já apareceram dezenas de tradutores que usam o google translator.

    ResponderExcluir