Esses softwares recentes de Inteligência Artificial (nem
tão recentes assim, na verdade – quando algo chega ao conhecimento do grande
público, é porque já é moeda corrente nos laboratórios há décadas) estão nos
empurrando na direção de um barranco cuja altura somos incapazes de prever, bem
como o que pode haver lá embaixo.
O deep-fake
capaz de mostrar, ao vivo e em cores, qualquer pessoa dizendo qualquer coisa,
ou fazendo qualquer coisa, de modo indistinguível de uma imagem “real” está a
cada ano, exponencialmente, muito mais aperfeiçoado.
Em sua versão mais ingênua e aconchegante, o deep-fake pode realizar a fantasia que
William “Neuromancer” Gibson sugeriu há mais de trinta anos:
Daqui a dez anos, você vai poder entrar em lojas de Manhattan onde eles
vão escanear você com um laser, apertar alguns botões, e lhe entregar uma cópia
video-cassete de O Falcão Maltês onde sua imagem substitui a imagem de
Humphrey Bogart. E vai ser digitalmente indistinguível do original.
(Journal Wired,
Summer-Fall 1990, pág. 327, trad. BT)
(Essa fantasia é típica de Gibson e da época, misturando
video-cassete e digitalização. O forte de Gibson é a imaginação tecnológica,
não o conhecimento tecnológico. Ele diz que quando usou o conceito de vírus em Neuromancer, que foi escrito em máquina
de escrever, pensava que todo mundo da área de Informática sabia o que era vírus
de computador – e não sabiam.)
A versão mais amedrontadora desse processo é sabermos que
com a tecnologia disponível em 2024 já é plenamente possível produzir um vídeo
em que o Presidente Biden, com seu rosto, sua voz, seus cacoetes, apareça
declarando guerra à Rússia, ou ao Irã, ou à China. Ou o presidente Trump, etc
etc, tanto faz.
Ontem à noite estive assistindo um documentário sobre a
guerra da Ucrânia, 20 Dias em Mariupol,
de Mstyslav Chernov. Ele descreve o início da ofensiva russa sobre essa cidade,
mostra os bombardeios, a entrada dos tanques no perímetro urbano, os hospitais
cheios de feridos morrendo à mão dos médicos, o desespero de quem precisar
fugir dali e não sabe como.
O filme tem seu lado documentarista, seu lado humanitário,
e seu lado político. É claramente um trabalho com a intenção de interferir no
modo como a guerra está sendo vista no mundo inteiro.
As imagens dos cineastas ucranianos são mandadas para
fora do país, divulgadas pela imprensa – e prontamente rebatidas pelas
autoridades e pela imprensa da Rússia. “São atores contratados, não são
feridos, não são médicos”. “Quem ganha a guerra da desinformação, ganha a
guerra.” Isso virou lugar comum, desde aquela época da entrevista de William Gibson.
Toda imagem pode ser fabricada e pode ser questionada. Toda entrevista pode ser
construída e pode ser desmentida.
Um dos pilares de credibilidade entre a comunidade
internacional é o mundo acadêmico, e mesmo este não está vacinado contra o
produto fake. Um dos casos mais
rumorosos é o “Caso Sokal”, em que o professor de física Alan Sokal conseguiu
publicar numa revista acadêmica um artigo completamente despropositado, escrito
no academês ininteligível que virou um vício de muitos professores.
O próprio Sokal desmascarou a farsa, dizendo que ela
servia como um alerta – se as universidades estavam publicando coisas que não
entendiam, e, pior, coisas deliberadamente absurdas, em quem podemos confiar?
Na imprensa? Nos poetas?
Aqui, o caso Sokal:
https://pt.wikipedia.org/wiki/Caso_Sokal
Isto me veio à mente lendo um artigo (em The Walrus) relativo à revista
eletrônica Atlas Obscura, que
frequento de vez em quando. Atlas Obscura
é uma publicação (e editora) dedicada a “lugares ocultos, história
inacreditável, maravilhas científicas, e prodígios gastronômicos”. Meu
interesse nessas publicações não tem cunho científico; pouco estou ligando se
aquilo é verdade ou não, e não trato como verdade. Trato sob a rubrica
amplíssima de “Idéias Malucas Para Futuros Contos”.
A revista publicava há anos matérias interessantes de um
tal Blair Mastbaum, mas a certa altura alguém farejou um peixe podre e foi
checar fontes. As matérias de Mastbaum eram falsas: pessoas que ele dizia ter
entrevistado não o conheciam, livros citados eram inexistentes, e a reportagem
em si era em cima de um fato imaginário.
Na matéria de The
Walrus que examina este caso, Michelle Cyca comenta um post de Blair
Mastbaum onde ele cita a professora Jannifer Kramer (University of British
Columbia), a qual nega com veemência conhecer o indivíduo ou ter-lhe feito
declarações. Diz Michelle Cyca:
Pesquisei uma citação atribuída ao famoso antropólogo Franz Boas e
descobri que ela vinha de um livro de outro autor, escrito oito anos após a
morte de Boas. O efeito geral daquele post era similar ao efeito daquelas
imagens geradas por Inteligência Artificial onde aparece uma pessoa com dedos
demais na mão. Quase convincente – mas não é. A professora Kramer comentou:
“Parte das descrições provém de informações exatas, mas foram distorcidas ou
lidas de maneira equivocada, e acabam produzindo resultados estereotipados ou
mesmo ofensivos”.
Blair Mastbaum não é uma Inteligência Artificial; ele foi
pesquisado, investigado, existe de verdade. O que ele representa é uma nova
maneira de pensar que está se alastrando tão aceleradamente que pode ser considerada
“nova”, embora seja velha como o papiro ou a escrita cuneiforme.
É a notícia-de-jornal inventada, por preguiça de
pesquisar, desdém pela verdade, ambição de notoriedade, espírito anárquico, confiança
na impunidade... São cientistas que plagiam cientistas, poetas que plagiam
poetas, pintores que falsificam pintores, músicos que furtam idéias de outros
músicos... Gente que atua num espaço profissional onde a Criatividade é um
valor essencial, mas que descobrem um atalho que lhes permite não-criar.
A Inteligência Artificial, ou pelo menos os softwares que
estão na boca de todo mundo atualmente, são mais ou menos isso – sistemas
sofisticados de varredura de tudo que foi estocado na memória das máquinas
(bilhões de terabytes?), e a produção (automática, mecânica, impessoal,
não-raciocinante) de pseudo-resultados.
Mais do que “máquinas que pensam como gente”, o que
estamos laboriosamente construindo, década após década, é uma humanidade
composta de “gente que pensa como máquinas”.
Na mesma entrevista de William Gibson que citei acima,
ele conta um episódio bobo mas revelador, que não tem nada a ver com
Inteligência Artificial, mas mostra um flash dessa zona intermediária entre
humanos e máquinas.
Numa sessão de autógrafos, um cara se aproximou de mim, depois que
autografei o livro para ele, e disse: “Isto vai valer muito dinheiro depois que
você morrer?” E eu falei: “Uh, não posso
saber. Talvez valha ligeiramente mais. ” Então ele perguntou: “Qual é sua
idade?” Eu disse: “Ah, espere sentado.” Ele olhou para o livro, com uma
expressão de tristeza sincera, e disse: “Sabe, eu pedi autógrafo esperando
faturar alguma grana”, e se afastou. Ele não estava sendo cruel. Estava apenas
sendo estúpido.
Não acho que o cara fosse tão estúpido assim.
Provavelmente é um cara que não gosta de ler, não sabe quem é “William Gibson”,
mas já ouviu histórias de livros autografados que vendem por mil dólares, dez
mil dólares. Seu único objetivo é ganhar dinheiro sem fazer força. Pessoas com
esse perfil, com esse grau de desinteresse pela vida, com essa falta de curiosidade,
de empatia, estarão um dia sentados numa mesa, com uma Inteligência Artificial
à sua disposição, para executar qualquer tipo de tarefa – escrever obras
literárias, inclusive. Esta é uma das facetas mais importantes do atual perigo,
e o perigo é real.
Um comentário:
Para ser sincero, tenho plena certeza que isso já está em curso no nível do fandom. Assim como já apareceram dezenas de tradutores que usam o google translator.
Postar um comentário