Publicidade
IA

O que está errado com a Inteligência Artificial?

Pesquisadora líder em ética da IA disse que a Big Tech não prioriza a segurança da IA e que a mesma precisa ser construída por outras razões além de ganhar mais dinheiro.
Gostou? Compartilhe!
IA
(Imagem: Divulgação)
Publicidade

Timnit Gebru, uma voz líder em ética em IA, disse que a Big Tech precisa “desacelerar a IA” e “permitir que os pesquisadores criem a tecnologia que sabem que deve ser construída.” Inteligência Artificial é uma das próximas grandes novidades da tecnologia. Apesar de ser usado diariamente por qualquer pessoa que use um telefone ou computador, e seus usos se expandem para mudanças climáticas, medicina, jogos e para encontrar soluções para problemas além da capacidade humana, a IA tem um lado sombrio.

Gebru ganhou reconhecimento internacional devido ao escândalo Google-Gebru envolvendo sua saída confusa do Google. Na empresa, Gebru ocupou um cargo de destaque, co-liderando a equipe de IA ética da empresa. Ela é conhecida por seu trabalho em viés de IA em software de reconhecimento facial e outras aplicações. O viés da inteligência artificial foi citado como impactante em coisas como pedidos de crédito e até mesmo no sistema judicial. Os sistemas de reconhecimento facial às vezes são usados para prever a probabilidade de um indivíduo cometer um crime, por exemplo.

Durante uma entrevista à Wired, Gebru disse que a estrutura e os incentivos para desenvolver tecnologia de IA nem sempre podem ser “ganhar mais dinheiro para grandes corporações que já têm tanto poder” ou “obter dinheiro do Departamento de Defesa”. Gebru anunciou que abrirá um instituto de pesquisa independente de IA em 2 de dezembro, exatamente um ano depois de “ter sido demitida do Google”. Ela questionou a retaliação, estrutura e sistema de recompensa que a Big Tech usa para impulsionar suas equipes de IA.

Continua depois da Publicidade

O Instituto

O objetivo do instituto de pesquisa independente de IA da Gebru é dar aos especialistas o tempo e os recursos necessários para desenvolver a tecnologia da maneira certa pelos motivos certos, priorizando a segurança e não o lucro. A IA tem sido associada a preconceitos que podem impactar vidas. Gebru disse que trabalhar para o Google é “apagar incêndios” e que os pesquisadores de ética da IA ​​não deveriam criticar a tecnologia de IA uma vez que ela já foi lançada, mas ter tempo para apresentar modelos positivos e avaliar a tecnologia antes de ser lançada ao público .

“Não vejo esse incentivo na academia e não vejo esse incentivo na indústria”, disse Gebru à Wired. A IA geralmente não é regulamentada e não existe um conjunto de leis que rege o uso da IA. Gebru, que também trabalhou na Apple, acredita que a Big Tech não se autorregulará voluntariamente e priorizará a segurança, porque isso seria pedir a eles que “perdessem bilhões de dólares”.

A única solução para “desacelerar” a IA é fortalecer as leis, incluindo proteções a denunciantes, leis antidiscriminação, leis de proteção ao trabalhador e definir padrões legais para cenários de IA de alto risco, acrescentou Gebru. Questionada se a luta por uma IA mais ética deve ser feita de forma independente ou de dentro de uma grande empresa, Gebru disse que deve ocorrer nos dois ambientes, por dentro e por fora.

Via: Wired/Screen Rant

CONTEÚDO RELACIONADO