A maioria da IA (Inteligência Artificial) é treinada em conteúdo razoavelmente “seguro”. O Massachusetts Institute of Technology (MIT), entretanto, batizou sua mente digital de “Norman” , evocando Norman Bates, o famoso personagem do filme Psicose, de Alfred Hitchcock.
No início de sua vida artificial, Norman foi exposto aos “threads” com as imagens e conversas mais perturbadoras do Reddit. Depois disso, ele foi submetido a um teste de Rorschach, destinado a avaliar o estado mental de um paciente por meio de sua interpretação de manchas de tinta aleatórias.
Enquanto uma IA “normal” percebia “uma foto em preto e branco de um pequeno pássaro”, Norman achou que se parecia mais com um homem que “é empurrado para dentro de uma máquina de fazer massa” em vez de “um close-up de um bolo de casamento em uma mesa”, ele viu um “homem morto por um motorista em alta velocidade. “Uma pessoa segurando um guarda-chuva no ar” era “um homem morto a tiros na frente de sua esposa que gritava”.
O experimento foi feito para ilustrar um argumento importante. O professor Iyad Rahwan, um dos três homens que desenvolveram Norman, disse que o projeto “destaca a ideia de que os dados que usamos para treinar a IA refletem-se na forma como a IA percebe o mundo e como ela se comporta”.
Projetos como esse visam provocar discussões públicas sobre as capacidades dos algoritmos de inteligência artificial de última geração. Mostram, por exemplo, como os algoritmos de IA podem manipular a emoção humana (para o bem ou para o mal), aprender preconceitos extremos a partir dos dados ou produzir literatura criativa em colaboração com as pessoas.
Outro exemplo de IA que transformou dados ruins em comportamento ruim é o bot do Twitter, “Tay”, implantado pela Microsoft em março de 2016. Ele passou de um experimento social inocente a um neonazista em menos de 24 horas.
Um programa gerado pela IA e usado por um tribunal americano para avaliação de risco era racista em relação aos prisioneiros negros. Devido à falha na informação que tinha sido fornecida,todos os prisioneiros negros foram marcados como sendo duas vezes mais propensos a reincidir. Este não é um problema de correção política, mas de entender que mesmo uma construção completamente digital pode adotar o viés de seus criadores – seja intencional ou não.
A Dra. Joanna Bryson, da Universidade de Bath, defende uma maior fiscalização no desenvolvimento da inteligência artificial e uma transparência mais ampla. “Quando treinamos máquinas, escolhendo nossa cultura, nós necessariamente transferimos nossos próprios preconceitos”, disse ela. “Não existe uma maneira matemática de criar justiça. O viés não é uma palavra ruim no aprendizado de máquina. Significa apenas que a máquina está detectando regularidades ”.
Outros dois exemplos são a Máquina do Pesadelo e Empatia Profunda. Em todas as épocas e culturas, as pessoas sempre tentam inovar maneiras de se assustarem. Criar uma emoção visceral como o medo continua a ser uma das pedras angulares da criatividade humana. Esse desafio é especialmente importante em uma época em que nos perguntamos quais são os limites da inteligência artificial – nesse caso, as máquinas podem aprender a nos assustar? Aqui, imagens assustadoras são geradas por computador, alimentadas por algoritmos de aprendizagem profunda.
O Deep Empathy usa algoritmos de aprendizado profundo para aprender características dos bairros sírios após a guerra (por exemplo, Aleppo, Síria), e usa esses recursos para transformar imagens de cidades em todo o mundo, simulando como seriam se sofressem desastres como os da Síria. Ele usa essas imagens simuladas para investigar se a IA pode induzir mais empatia.
Por enquanto, o público pode ajudar Norman a se consertar . Seguindo o link, você pode pegar uma amostra do teste de Rorschach de Norman e ajudá-lo a descobrir como são esses borrões coloridos. Com sorte, até amanhã, Norman não pensará que tudo é apenas uma.