Shifter ‚łĪ 6 meses atr√°s ‚łĪ Abrir

Timnit Gebru era at√© h√° bem pouco tempo um nome relativamente pouco conhecido do p√ļblico apesar da sua proemin√™ncia na comunidade tecnol√≥gica. Nascida e criada na Eti√≥pia at√© aos 5 anos, Gebru emigrou depois para os Estados Unidos da Am√©rica onde um percurso acad√©mico not√°vel a evidenciou em diversos campos no mundo da tecnologia, como o desenvolvimento de circuitos para a Apple ou a optimiza√ß√£o de vis√£o computadorizada em Stanford, e, ultimamente, os contributos para a investiga√ß√£o sobre √©tica aplicada √† intelig√™ncia artificial. Entre as bandeiras da sua carreira est√° um estudo desenvolvido no Microsoft Research em que a investigadora revela as fal√™ncias dos sistemas de intelig√™ncia artificial no que toca ao reconhecimento de mulheres ou pessoas de cor, e a lideran√ßa da equipa respons√°vel pela √©tica na IA da Google, cargo que agora deixa numa sa√≠da que tem gerado amplo debate online, depois de ter criado uma das equipas reconhecidamente mais diversas de toda a Google. Gebru diz ter sido despedida, a Google diz que Gebru se demitiu, pelo meio fica uma troca de argumentos e acusa√ß√Ķes em que muitos sugerem discrimina√ß√£o e incapacidade da Google para lidar com opini√Ķes divergentes dentro da sua pr√≥pria equipa.

 

A hist√≥ria do afastamento de Timnit Gebru come√ßa com um paper co-autorado pela investigadora e foi-se revelando publicamente numa troca de memos e e-mails que foram sendo publicados no Twitter. O primeiro relato do caso foi endera√ßado por Timnit, por e-mail, aos seus colegas, mas os cap√≠tulos seguintes desta hist√≥ria ainda sem fim passaram-se em pleno Twitter, tornando p√ļblica toda a discuss√£o. Jeff Dean, o respons√°vel por todo o departamento de Intelig√™ncia Artificial da Google, foi o primeiro a reagir, contando a sua vers√£o dos factos, publicando na sua conta da rede social, no passado dia 4, a mensagem que ter√° enviado a toda a equipa comunicando o afastamento de Timnit e explicando os seus fundamentos. √Č neste e-mail que se percebe que Gebru fora afastada por uma nova investiga√ß√£o que viria a lume pouco depois. Dean escreve que a investigadora, em conjunto com quatro outros Googlers e dois outros investigadores externos, foi autora de um paper submetido para publica√ß√£o externa antes de ser submetido para revis√£o de pares internamente seguindo os crit√©rios definidos pela empresa, respondendo vagamente a algumas das quest√Ķes levantadas pela investigadora no seu primeiro e-mail, em que conta de forma hipot√©tica tudo o que se ter√° passado.

Segundo Dean, o paper em quest√£o ter√° sido submetido para revis√£o da Google poucos dias antes do dia previsto para a sua publica√ß√£o, ao contr√°rio do definido pela Google de que os trabalhos de investiga√ß√£o feitos pelos seus colaboradores devem ser enviados duas semanas antes. Para al√©m disso, o respons√°vel do departamento de AI diz no mesmo e-mail que, apesar do incumprimento do processo, a equipa da Google procedeu √† revis√£o do artigo, concluindo que a investiga√ß√£o n√£o estava ao n√≠vel dos standards da empresa por ignorar uma certa quantidade de assun√ß√Ķes e desenvolvimentos, recomendando aos investigadores uma s√©rie de altera√ß√Ķes. Foi em resposta a esta solicita√ß√£o que o princ√≠pio do fim da passagem de Gebru ter√° come√ßado, segundo Dean. A ent√£o respons√°vel de √©tica ter√° respondido impondo uma s√©rie de condi√ß√Ķes para a sua continuidade na Google, entre as quais, segundo o mesmo e-mail, exigia saber quem tinham sido os revisores da sua investiga√ß√£o. Dean e a sua equipa ter√£o rejeitado as condi√ß√Ķes propostas e interpretado o e-mail como um pedido de demiss√£o que acabaram por aceitar; contudo, para Timnit, e segundo testemunhos que surgem nas redes sociais, como o da pr√≥pria visada, o assunto pode ser mais complexo do que aparenta, valendo at√© um abaixo assinado por 1400 colaboradores da Google e a resposta do CEO da Google, Sundar Pichai.

O primeiro ponto a gerar controv√©rsia prende-se com a intransig√™ncia da Google em aprovar o trabalho cient√≠fico dos seus colaboradores. Este procedimento √© visto por cr√≠ticos como uma forma da Google manter um grande controlo sobre o que √© publicado e, para al√©m disso, como uma forma de a empresa se substituir ao processo cientifico corrente de revis√£o an√≥nima mediada pelos editores das revistas a que o trabalho se sujeita a publica√ß√£o. J√° a empresa defende que esta √© uma forma de gerar uma discuss√£o ampla sobre os pressupostos dos artigos, envolvendo investigadores de diversas √°reas. O segundo ponto, intimamente ligado, prende-se com o facto de a empresa sugerir que a revis√£o interna √© an√≥nima ‚ÄĒ e que Timnit ter√° pedido a identifica√ß√£o dos revisores do paper em causa ‚ÄĒ uma alega√ß√£o que a autora desmente, acrescentando ainda que considera ‚Äúirreal‚ÄĚ a ideia de se assumir que a revis√£o na Google √© an√≥nima, algo confirmado por Manas Tungare, tamb√©m dos quadro da empresa, que refere que as revis√Ķes n√£o s√£o an√≥nimas. Tamb√©m William Fitzgerald que esteve durante 9 anos no departamento de AI da Google, sugeriu que as declara√ß√Ķes de Dean eram infundadas, dizendo que durante os anos que colaborara na revis√£o de artigos, dezenas n√£o ter√£o sido revistos, sem isso resultar no despedimento de ningu√©m.

Para al√©m das d√ļvidas sobre as alega√ß√Ķes, outros apontam para o facto de a Google ter transformado uma proposta de di√°logo de Timnit Gebru numa rescis√£o sum√°ria como uma forma pouco diplom√°tica de terminal a rela√ß√£o laboral com a investigadora. Jack Poulson, cuja sa√≠da da Google tamb√©m fez t√≠tulos na imprensa, foi uma das vozes que testemunhou ter sido alvo de um processo hom√≥logo mas tratado de forma diferente ‚ÄstPoulson demitira-se da empresa a prop√≥sito do projecto Dragonfly em 2018. Mas para al√©m do apoio recebido por Timnit de fora da empresa, n√£o foram s√≥ ex-trabalhadores da Google a solidarizar-se com a mulher que chefiava o departamento de √©tica. No dia 4 de Dezembro, um dia ap√≥s o seu afastamento da empresa se tornar p√ļblico, surgiu no Medium uma carta assinada por centenas de trabalhadores da Google exigindo mudan√ßas nos processos da Google. Desde a sua publica√ß√£o, a carta j√° recolheu 2351 assinaturas de colaboradores da empresa, para al√©m das 3729 vindas de outros apoiantes de Timnit de outros quadrantes da sociedade. Face ao sucedido e √† magnitude da rea√ß√£o, Sundar Pichai viu-se obrigado a reagir. Timnit Gebru fazia parte da minoria de 1.6% de mulheres negras que comp√Ķe os quadros da Google, pelo que o seu despedimento fez soar os alarmes da diversidade, atendendo especialmente ao facto de a investigadora ser respons√°vel por uma das equipas mais diversas da Google e por ter um trabalho proeminente nessa mesma √°rea, essencial a um desenvolvimento ponderado e democr√°tico das tecnologias de Intelig√™ncia Artificial.

Contudo, se a carta de Sundar Pichai podia acalmar os √Ęnimos, a forma como se referiu √† investigadora acabou por acicatar ainda mais os √Ęnimos. O facto de Sundar Pichai caracterizar o evento como uma demiss√£o em vez de um despedimento √© um dos principais motivos de celeuma. Timnit Gebru ter√° dito na sua resposta aos primeiros e-mails que ponderaria sair da Google caso as condi√ß√Ķes propostas n√£o fossem aceites, mas a decis√£o de cancelar os acessos corporativos da investigadora, cessando informalmente a sua liga√ß√£o √† empresa, ter√° sido uma decis√£o unilateral que a empresa agora se recusa a reconhecer ‚ÄĒ e que segundo Gebru seguir√° para tribunal. Jack Clarck, director de Pol√≠ticas na OpenAI, laborat√≥rio de investiga√ß√£o sobre √©tica em AI, foi uma das pessoas a tornar esta preocupa√ß√£o vocal, considerando as declara√ß√Ķes de Pichai uma forma de desresponsabiliza√ß√£o sobre o assunto. A pr√≥pria Timnit disse num tweet que sentiu que o memo de Pichai foi desumanizador fazendo-a parecer uma ‚Äúmulher negra enfurecida‚ÄĚ. De facto, o texto escrito pelo CEO da Google enfatiza a condi√ß√£o minorit√°ria de Gebru de uma forma pouco substancial ‚ÄĒ ‚Äúwe need to accept responsibility for the fact that a prominent Black, female leader with immense talent left Google unhappily.‚ÄĚ ‚ÄĒ, sem endere√ßar de facto os motivos que levaram ao seu afastamento, deixando apenas a promessa de perceber ‚Äúcomo poderia [a Google] ter agido de forma mais respeitadora.‚ÄĚ

Do outro lado da barricada destacaram-se as interven√ß√Ķes neste debate p√ļblico de Pedro Domingos, professor em√©rito da The Paul G. Allen School of Computer Science & Engineering; o autor portugu√™s de um reconhecido livro sobre Intelig√™ncia Artificial saiu em defesa da Google criticando a postura woke de Timnit Gebru e categorizando o fen√≥meno como um abuso de poder, e uma perpetua√ß√£o de um complexo de vitimiza√ß√£o, declara√ß√Ķes que acabaram por fazer com que a Universidade a que est√° associado fizesse uma thread esclarecendo a sua posi√ß√£o divergente do exposto pelo Professor, reconhecendo contudo a sua liberdade para entrar na discuss√£o p√ļblica nas redes sociais.

E se o assunto se tornou p√ļblico com a discuss√£o nas redes sociais, a verdade √© que pouco mais se sabe para al√©m da troca aberta de tweets, e o tema promete tornar-se mais uma pedra no sapato da Google que tem tido diversos casos de diverg√™ncia entre os seus colaboradores e as suas inten√ß√Ķes nos √ļltimos anos. Apesar de o artigo cient√≠fico ainda n√£o se ter tornado p√ļblico, a revista Technology Review do MIT acedeu ao documento, e sintetizou alguns dos principais pontos enunciados, refor√ßando ainda mais a ideia de que o motivo central do afastamento pode ser a disc√≥rdia sobre o artigo ‚ÄĒ recorde-se que no primeiro e-mail de Jeff Dean, o respons√°vel da Google refuta liminarmente estas acusa√ß√Ķes.

Do que agora se tornou p√ļblico do artigo, atrav√©s de uma das autoras que colaborou com Timnit Gebru, Emily Bender, sabe-se que a investiga√ß√£o era especialmente incisiva sobre os custos ambientais e financeiros do treino de modelos de aprendizagem autom√°tica utilizados pela Google, alertando para a pegada carb√≥nica provocada por esta tecnologia de ponta. No artigo, as investigadores sugerem que o treino de sistemas de processamento de linguagem com modelo NAS (Neural Architecture Search) produz cerca de 284 toneladas m√©tricas de carbono, ao passo que o modelo BERT, usado pela Google desde 2019, por exemplo, no motor de busca, para aprender a partir das pesquisas dos utilizadores, √© respons√°vel por quase o dobro da produ√ß√£o deste g√°s. Para al√©m disso, o artigo alertava para o facto de a an√°lise de grandes quantidades de texto se tornarem mais dif√≠cil de escrutinar, podendo deixar passar linguagem racista ou mis√≥gina, que pode induzir nos sistemas de aprendizagem autom√°tica vi√©s indesejados e discriminat√≥rios. O paper referia ainda os elevados custos de desenvolvimento desta tecnologia e a forma como esses custos levavam a pesquisa neste campo a guiar-se sobretudo por crit√©rios de custo-oportunidade focados no que as empresas tecnol√≥gicas podem ganhar no futuro com as tecnologias, n√£o se comprometendo necessariamente com um desenvolvimento de uma tecnologia mais precisa. Por √ļltimo e num ponto an√°logo, as investigadores chamavam √† aten√ß√£o para o facto de a intelig√™ncia artificial n√£o compreender de facto a linguagem embora o seu tratamento e utiliza√ß√£o pudesse fazer com que o p√ļblico desenvolvesse, erradamente, essa percep√ß√£o.

Segundo as autoras do estudo, o argumento central da investiga√ß√£o prende-se com o facto de o desenvolvimento de AI consumir muitos recursos, tornando-se acess√≠vel apenas para empresas e grupos de investiga√ß√£o ricos, o que pode ter implica√ß√Ķes futuras na democraticidade da tecnologia. Para al√©m disso, esta perspectiva enunciada, remonta para o car√°cter plutocr√°tico do desenvolvimento tecnol√≥gico da contemporaneidade. Com a investiga√ß√£o em tecnologias de ponta altamente dependente do financiamento de grandes empresas como a Google, as autores temem que o desenvolvimento possa seguir sobretudo o caminho do lucro e n√£o necessariamente o caminho mais ben√©fico para a ci√™ncia, por n√£o haverem benef√≠cios em fazer pesquisa nesse sentido.

O despedimento ou demiss√£o de Timnit Gebru, seja como for entendido no final, √© um sinal paradigm√°tico da rela√ß√£o entre as corpora√ß√Ķes e o desenvolvimento cientifico, denunciando uma hiper-depend√™ncia da investiga√ß√£o em determinados sectores, como a intelig√™ncia artificial. De um lado h√° quem defenda a import√Ęncia das empresas e da sua capacidade de financiar pesquisa que de outra forma poderia ser mais lenta, por outro h√° quem diga que esta √© uma forma destas mesmas empresas controlarem os resultados dessa investiga√ß√£o e a forma como estes chegam a p√ļblico, permitindo-lhe gerir melhor as percep√ß√Ķes sobre os seus pr√≥prios produtos que muitas vezes se valem de uma certa incompreens√£o por parte do utilizador para perpetuar ret√≥ricas ilus√≥rias sobre as consequ√™ncias da utiliza√ß√£o da intelig√™ncia artificial.¬†

No mais recente desenvolvimento sobre o caso, a influente cientista da computa√ß√£o de intelig√™ncia artificial deu uma entrevista √† BBC em que acusa a Google e as gigantes tecnol√≥gicas no geral de serem ‚Äúinstitucionalmente racistas‚ÄĚ. A posi√ß√£o cr√≠tica de Timnit Gebru √© secundada por v√°rios investigadores da √°rea, ecoando novamente a preocupa√ß√£o endere√ßada por Emily Bender de as grandes empresas afastarem pessoas eticamente comprometidas de √°reas de desenvolvimento cruciais.