Um mundo sem privacidade!
“Profeta” do escândalo do Facebook faz
alerta sobre reconhecimento facial
Bruno Romani
Professor polonês previu mecanismo que levou ao caso
Cambridge Analytica; agora, se preocupa com uso de
inteligência artificial para reconhecimento de rostos humanos
MICHAL KOSINSKI |
Michal Kosinski sabe que causa controvérsia. Psicólogo e professor assistente da Universidade Stanford, o
polonês de 37 anos descreveu, anos antes de ser descoberto, o mecanismo por
trás da maior crise da história do Facebook. Em artigo de 2013, ele chamou
atenção para o uso de curtidas e testes
para decifrar a personalidade de uma pessoa. A estratégia foi usada pela
consultoria política Cambridge Analytica (CA) para influenciar a
opinião pública em episódios como as eleições americanas de 2016. De profeta,
Kosinski passou a ser considerado cúmplice na manobra. Agora, faz novo alerta: abusos no uso de inteligência artificial
(IA) para reconhecimento de rostos
humanos.
“Empresas e governos estão usando
tecnologia para identificar não só as pessoas, mas também características e estados psicológicos, causando riscos sérios à
privacidade”, diz o pesquisador, em entrevista exclusiva ao jornal O Estado de S. Paulo. Nos últimos anos,
ele tem dedicado seus estudos a mostrar como a tecnologia de reconhecimento facial pode ser usada para discriminar
pessoas. Para exemplificar, escolheu uma abordagem espinhosa: mostrar que
um algoritmo pode olhar para fotos de pessoas em redes sociais e adivinhar sua
orientação sexual com precisão maior do que humanos fariam.
Cara a cara
No estudo, o polonês utilizou um algoritmo de reconhecimento facial
disponível de graça na internet, o VGG Face. O sistema foi alimentado com
35 mil fotos de rostos encontradas em redes sociais. A máquina tinha um
desafio: ao ser apresentada a um par de fotos, com uma imagem de um
heterossexual e uma de um homossexual, ela deveria ser capaz de apontar qual
das pessoas tinha a maior probabilidade de ser gay.
A máquina teve taxa de acerto de 81% no caso de homens e 71% no caso de
mulheres – já julgadores humanos tiveram 61% e 54%, respectivamente. Ao analisar cinco fotos das mesmas pessoas,
a precisão da máquina subiu para 91% (homens) e 83% (mulheres).
“O estudo não tenta entender o que
causa diferenças entre gays e héteros, mas mostrar que há mecanismos que
trabalham para isso, como o fato de que características
psicológicas e sociais afetam nossa aparência”, explica Kosinski. “Para os
humanos, é difícil detectá-las, mas os algoritmos são muito sensíveis e podem
fazer previsões precisas.”
Publicados em 2017 na revista The Economist, os resultados da pesquisa
provocaram polêmica. Dois grupos LGBTQ+ dos EUA, o Human Rights Campaign e o
Glaad, consideraram o estudo falho e perigoso, enquanto pesquisadores
questionaram seu método, linguagem e propósito.
Para Kosinski, há paralelos na
reação das pessoas entre seu estudo sobre o Facebook e sobre reconhecimento
facial. “Quando alertei para o
monitoramento de curtidas, as pessoas riram dos meus resultados. Ao
descobrir sobre a Cambridge Analytica,
passaram a me levar a sério”, conta. “De repente, começaram a me culpar por
alertar sobre o problema, mesmo não sendo o autor dessa tecnologia.” Mas é
difícil ignorar sua conexão com o caso.
A mudança de foco do pesquisador
acompanha as tendências da internet, como o crescimento da interação baseada em imagens. Um exemplo é o Instagram, maior rede social de fotos e vídeos do
mundo. Entre 2013 e 2018, a plataforma, que também é do Facebook, cresceu mais
de dez vezes e hoje tem mais de 1 bilhão
de usuários compartilhando selfies e fotos de amigos em todo o mundo.
Perdas e danos
O polonês não se importa com as
reações e crê ter atingido seu objetivo: mostrar
a facilidade de se construir um algoritmo capaz de estabelecer conclusões como
a orientação sexual, religiosa ou política de uma pessoa.
Independentemente de estarem certos
ou errados, sistemas com essa missão podem gerar danos à sociedade se forem
usados. “Há startups e companhias que oferecem previsões básicas gratuitas na
internet. É uma tecnologia acessível – e pode estar em aeroportos ou postos de
fiscalização de imigrantes”, diz.
Há até lugares em que isso já está
sendo posto em prática: na China, há
relatos de que o governo usa reconhecimento facial para catalogar e vigiar os uighurs, uma minoria étnica muçulmana.
Já cidadãos chineses são monitorados para a obtenção de crédito pessoal.
“Não dá para a sociedade se
transformar numa sociedade preditiva, na qual não posso ter um emprego por ter
72% de chance de ter determinado comportamento”, avalia Sérgio Amadeu,
professor da Universidade Federal do Grande ABC (UFABC). “Isso retira das pessoas, bem como da sociedade, a capacidade de livre
arbítrio.”
Reconhecimento facial na China - a sociedade mais vigiada do mundo |
Ética
Para especialistas em Inteligência
Artificial ouvidos pelo jornal O Estado de S. Paulo, o nível de apuro tecnológico da pesquisa de
Kosinski não surpreende. “São resultados preliminares. É possível até melhorar
a precisão do algoritmo”, diz Alexandre Chiavegatto Filho, professor da USP e
especialista em tecnologia na saúde. Não é algo que está nos planos do polonês:
para ele, o que fez foi suficiente para jogar luz no problema. A discussão do
trabalho, porém, está longe de ser enterrada.
“Escolher estudar padrões ligados a assuntos íntimos, como orientação
sexual, com base no rostos das pessoas parece bastante assustador”, diz
Walter Carnielli, diretor do Centro de Lógica, Epistemologia e História da
Ciência da Unicamp e pesquisador associado ao Advanced Institute for Artificial Intelligence (AI2). Para
Chiavegatto, da USP, o tiro do polonês pode sair pela culatra. “É uma pesquisa
que mostra para o Irã e outros governos totalitários que é possível e simples
aplicar essa tecnologia. É preciso
pensar nas consequências.”
Lá fora a questão é bem discutida:
antevendo cenários distópicos, a cidade de São Francisco (EUA) proibiu, há duas
semanas, o uso governamental de reconhecimento facial em locais públicos.
Kosinski concorda que a proibição não é um bom caminho para a tecnologia. Aqui
no Brasil, o mais próximo disso são audiências públicas sobre o uso de
reconhecimento facial e de inteligência artificial.
Enquanto isso, Kosinski se prepara
para tocar as trombetas de um novo apocalipse tecnológico. Hoje, ele trabalha
em novo artigo sobre reconhecimento facial. Desta vez, tenta demonstrar como a tecnologia pode ser usada para estimar
visões políticas. A expectativa é publicar o trabalho até o final do ano,
antes de uma nova corrida presidencial começar nos EUA. Ele sabe que deve gerar
controvérsia – de novo. “Se as pessoas
entenderem os riscos, tudo bem: meu trabalho terá sido bem feito.”
Comentários
Postar um comentário