Justin Lane é um especialista em inteligência artificial (IA) formado pela Universidade de Oxford e empresário[…]. Sua pesquisa abrange o campo da cognição – tanto humana quanto artificial – bem como religião e conflito.
Isso o levou a um trabalho de campo na Irlanda do Norte, onde estudou de perto os extremistas do Exército Republicano Irlandês e da Associação de Defesa do Ulster. No final das contas, ele aplicou sua pesquisa em ciências humanas à programação de IA e simulações de computador baseadas em agentes.
[…]
Lane está mais otimista. Ele me garante que o mundo da tecnologia é apenas uma série de ferramentas complexas. O segredo é saber como usá-los corretamente. […]
Esta entrevista é editada para conteúdo e clareza.
JOE ALLEN: De sua perspectiva como analista de rede, como são as massas sujas do ponto de vista de Deus? Estou sendo paranóico ou eles querem nos pegar?
JUSTIN LANE: Empresas como Google, Facebook ou Twitter – ou empresas de análise como a minha – agregam grandes quantidades de dados sobre os usuários. Isso é o que a maioria das pessoas chama atualmente de “Big Data”.
O que a maioria das empresas está fazendo é observar os dados em massa, ver quais são os padrões. Normalmente, o conteúdo específico do que é postado não é do interesse da empresa, do cientista de dados ou de seus algoritmos. Eles são apenas sistemas de engenharia que podem aprender esses padrões para que possam rastrear e aumentar o envolvimento de usuários individuais.
No entanto, em um banco de dados em algum lugar, esses dados existem na granularidade individual. Talvez seja no Twitter, ou um banco de dados corporativo, ou um banco de dados de inteligência em algum lugar. Essas informações pessoais podem ser usadas para fins nefastos. Existem implicações éticas óbvias.
Considere o uso da inteligência na China, onde se você disser algo ruim sobre o regime, sua pontuação de crédito social cai. Eles não estão olhando necessariamente de forma agregada, eles estão dizendo: “Não, você, neste dia, disse algo crítico ao governo e agora você não pode comprar uma passagem de trem”.
Eu diria que o que a China está fazendo atualmente é o que mais se aproxima do tipo de paisagem infernal distópica de que todos temos medo, enquanto a maioria das empresas americanas está mais interessada no fato de serem pagas por clique. Essa é uma diferença crítica, eu acho.
JA: Esse vasto mapa da opinião pública não poderia ser usado para manipulação – além da coleta de dados da campanha de Barack Obama ou do “ caso ” Cambridge Analytica de Donald Trump ?
JL: A possibilidade de manipular a opinião pública é enorme. O usuário médio está sendo manipulado ativa e passivamente.
Eles estão sendo ativamente manipulados no sentido de que qualquer um que já ligou uma TV ou um rádio foi manipulado. O marketing existe para nos manipular, garantindo que, no momento em que precisarmos de algo, precisaremos de uma marca específica. Essa é a genialidade da publicidade. É simplesmente escalonável a um nível que nunca imaginamos com os dados que a mídia social possui e o número de pessoas engajadas em uma única plataforma.
Ao mesmo tempo, há também a manipulação passiva, que tem a ver com o que uma empresa permite em seu site – como estão produzindo e alterando, algoritmicamente, as informações que vemos.
Do ponto de vista psicológico, sabemos que quanto mais você for capaz de recitar informações, maior será a probabilidade de se lembrar delas. Chamamos isso de “aprendizado”. Então, quando uma empresa de mídia social decide que vai censurar um certo tipo de informação, ela decide que não vai permitir que seus usuários aprendam sobre isso tão prontamente.
Até certo ponto, isso existe de maneiras que eu acho que podem ser eticamente imperativas, onde existem certas circunstâncias, como danos a crianças ou pessoas indefesas sendo atacadas. Mas editar as opiniões dos usuários é uma área cinzenta. Quem você está protegendo retirando certo discurso político? Quem você está protegendo com a prática de shadowbanning?
Nessa medida, estamos sendo obviamente manipulados. Se isso é bom ou ruim depende muito do lado do espectro político em que você está, porque parece acontecer mais com vozes conservadoras do que com vozes liberais. Você vê isso muito na diferença entre “O que é discurso de ódio?” e “O que é discurso que você odeia?”
JA: Os policiais de IA estão policiando nossa fala nessas plataformas?
[…]
O professor Ibram X. Kendi, da Boston University [ fundador do novo Center for Antiracist Research], fez comentários que podem ser interpretados como racistas e transfóbicos. No entanto, ele é anunciado pela universidade. Mas a universidade não vai defender os republicanos do campus que questionam Kendi quando estão sendo atacados por organizações estudantis de esquerda. Infelizmente, esse padrão parece estar crescendo nos Estados Unidos.Joe Allen é um companheiro primata que se pergunta por que descemos das árvores. Por anos, ele trabalhou como armador em várias turnês de concertos. Entre os shows, ele estudou religião e ciências na UTK e na Boston University. Encontre-o em www.joebot.xyz ou @EvoPsychosis .
Imagem:
A forma mais básica de cotrole mental é a repetição.
Obedeça
Se você repetir uma mentira tanto quanto for necessário, ela se torna verdade política.