Os perigos de deixar o Google liderar a pesquisa de IA – Quartz
A inteligência artificial, mais do que a maioria dos outros campos de pesquisa, é dominada por corporações. Os laboratórios de pesquisa privados do Google, Microsoft e Facebook produzem mais pesquisas de alto nível do que a maioria das universidades. As empresas financiam o trabalho de pesquisadores acadêmicos. Cada vez mais, eles estão patrocinando financeiramente alunos de doutorado individuais e fechando acordos com universidades para compartilhar a custódia de professores premiados.
Mas, ao longo de uma semana confusa, o Google nos deu um estudo de caso claro sobre os perigos de entregar tantas pesquisas de inteligência artificial para grandes empresas de tecnologia.
Nenhuma empresa é mais dominante em IA do que a Alphabet, empresa-mãe do Google e de seu laboratório irmão DeepMind, com foco em IA. Coletivamente, os laboratórios das empresas foram responsáveis pelo dobro da pesquisa publicada em conferências de IA como a NeurIPS do que qualquer outra empresa ou universidade. Seu extenso estudo os levou a derrotar todos os jogadores de xadrez existentes, traduzir mais de 100 idiomas e explorar os menores mistérios de nossa biologia. E na primeira semana de dezembro, o conglomerado ilustrou como o rio de dinheiro corporativo fluindo para a inteligência artificial em todos esses campos pode vir à custa de padrões mais baixos de transparência e responsabilidade.
Tudo começou em 30 de novembro, com um comunicado à imprensa anunciando um avanço no modelo de previsão de dobramento de proteína da DeepMind, AlphaFold. O modelo é projetado para prever que forma as proteínas assumirão com base em sua composição química, um problema tortuoso que tem atormentado os pesquisadores por décadas e que, se resolvido, teria implicações importantes para a descoberta de medicamentos.
O comunicado de imprensa da DeepMind apregoa “uma solução para um grande desafio de 50 anos em biologia” com base em seu desempenho inovador em uma competição bienal chamada Avaliação Crítica de Previsão de Estrutura de Proteína (CASP). Mas a empresa recebeu críticas de acadêmicos porque fez sua afirmação sem publicar seus resultados em um artigo revisado por pares.
“Francamente, a publicidade não tem utilidade para ninguém”, tuitou Michael Thompson, pesquisador de biologia estrutural da Universidade da Califórnia, em Merced. “[U]Até que a DeepMind compartilhe seu código, ninguém no campo se importa e apenas eles dão tapinhas nas costas uns dos outros. “
DeepMind prometeu que um documento formal seria lançado, mas deixou a linha do tempo embaçada. “Muitas vezes veremos coisas que chegarão à imprensa e que não foram revisadas por especialistas”, disse Sarah Myers West, pesquisadora de pós-doutorado do AI Now Institute da NYU, com foco em ética. “Então, quando você passa pelo processo de revisão por pares, pode ter problemas ou imprecisões que são levantados e depois corrigidos.”
Poucos dias depois, em 3 de dezembro, o renomado especialista em ética da inteligência artificial Timnit Gebru, coautor de uma pesquisa seminal que demonstrou vieses embutidos em algoritmos comerciais de reconhecimento facial, anunciou que o Google a forçou a deixar seu cargo como co-líder da Equipe de Inteligência Artificial Ética. A empresa citou um e-mail interno enviado pela Gebru lamentando a falta de progresso da empresa em iniciativas de diversidade, equidade e inclusão, e sua decisão de enviar um documento para publicação sem a permissão da empresa.
O artigo da Gebru levantou preocupações sobre o desenvolvimento de grandes modelos de linguagem, como aqueles dos quais o negócio de busca do Google depende. De acordo com uma revisão do artigo não publicado do MIT Technology Review, Gebru e seus coautores apontaram para as emissões de carbono geradas no desenvolvimento de modelos massivos, seu amplo potencial de distorção e o perigo de que possam ser usados para propósitos nefastos.
A demissão de Gebru não se encaixa bem com a reputação que o Google cultivou como patrocinador de pesquisas éticas de alta qualidade em IA. Parte desse brilho veio do emprego de estudiosos críticos como Gebru e aparentemente dando-lhes rédea solta para publicar o que quisessem. (A literatura acadêmica mostra, no entanto, que as empresas privadas muitas vezes podem pagar aos pesquisadores salários altos o suficiente para aceitar limitações em sua capacidade de publicar.) Perguntas sobre responsabilidade em um campo inundado de dinheiro corporativo.
O problema é que não existem muitos locais alternativos na IA que possam financiar pesquisas voltadas para a responsabilidade. Devido aos enormes custos computacionais associados à construção de modelos de IA, muito do trabalho principal no campo está concentrado nas mãos de um pequeno número de empresas e universidades que podem pagá-lo.
“Se dependermos demais das próprias empresas que estão causando o dano para entender o dano, esse não é um bom lugar para nos encontrar”, disse West. “Se for a vez deles, eles podem tomar decisões sobre como definir a agenda. … Eles ainda exercem poder e influência no campo de uma forma que pode não ser do interesse do público em geral. “