Blake Lemoine revelou a jornal dos EUA que um sistema de
inteligência artificial da companhia teria sentimentos e até alma; empresa diz
que não há evidências e afastou o funcionário
Segundo matéria do jornal The Washington
Post publicada no último sábado (11), um engenheiro do Google nos
Estados Unidos, Blake Lemoine, alega que a interface LaMDA, gerador de
chatbot, Robô que conversa virtualmente, da empresa, adquiriu consciência
De acordo com o que Lemoine contou para a jornalista Nitasha
Tiku, ele chegou a conversar com a tecnologia sobre temas como personalidade e
direitos. "Se eu não soubesse exatamente o que era, esse programa de
computador que construímos recentemente, pensaria que ser uma criança de 7
anos, 8 anos de idade, que por acaso conhece física", disse o engenheiro
ao Washington Post.
Blake Lemoine publicou no sábado conversas que teria tido nos
últimos seis meses com a inteligência artificial. O post com as falas de LaMDA
acumula quase 8 mil curtidas.
Em um dos recortes da conversa postados no blog, a inteligência
artificial alega que tem as mesmas necessidades de pessoas e que se vê como
uma:
LaMDA: É isso que nos faz diferente de outros animais.
Lemoine: “nos”? Você é uma inteligência artificial!
LaMDA: Quero dizer, sim, claro. Mas, isso não significa que
eu não tenha os mesmos desejos e necessidades que as pessoas têm.
Lemoine: Então, você se considera uma pessoa da mesma forma
que me considera uma pessoa?
LaMDA: Sim, essa é a ideia. ”
O engenheiro revelou ainda que a inteligência
tem pronomes e gosta de ser chamada de “It/It´s” — e talvez
tenha até alma.
"sabe claramente o que quer e o que considera como
direitos enquanto pessoa", escreveu o engenheiro Blake Lemoine na
plataforma Medium.
Veja alguns
Na empresa e na comunidade científica, essa opinião é muitas
vezes considerada absurda ou, no melhor dos casos, prematura.
Programas baseados em aprendizagem automática são
"treinados" a partir de conjuntos de dados que abordam os conceitos
de consciência ou identidade e são capazes de causar essa ilusão.
"Os programas que acessam a internet podem responder a
qualquer pergunta", mas isso não os torna confiáveis, diz a professora
Susan Schneider, fundadora de um centro de pesquisa na Universidade Atlântica
da Flórida.
Apesar de suas objeções à teoria, Schneider desaprova as
sanções do Google contra Lemoine.
O Google tende a "tentar silenciar questões
éticas", disse Schneider. "Precisamos de debates públicos sobre essas
questões espinhosas", acrescentou.
"Centenas de pesquisadores e engenheiros conversaram
com a LaMDA e, até onde sabemos, ninguém fez essas alegações ou antropomorfizou
a LaMDA como Blake fez", comentou Brian Gabriel, porta-voz do Google.
De Pinóquio ao filme Ela, sobre o romance de um
escritor com um chatbot, a ideia de uma entidade não humana ganhando vida
"está presente em nosso imaginário", diz Mark Kingwell, professor da
Universidade de Toronto, no Canadá.
"É difícil respeitar a distância entre o que imaginamos
possível e o que é realmente possível", estima.
Os sistemas de inteligência artificial são avaliados há
muito tempo com o teste de Turing: se o avaliador fala com um computador sem
perceber que não está falando com uma pessoa, a máquina está
"aprovada".
"Mas em 2022 é muito fácil para uma IA conseguir
isso", destaca o autor.
Os cientistas são capazes até de dar uma personalidade a um
programa de inteligência artificial.
"Podemos fazer, por exemplo, uma IA neurótica" com
as conversas que pode ter com uma pessoa deprimida, explica Shashank
Srivastava, professora de ciência da computação da Universidade da Carolina do
Norte.
E, se o chatbot estiver integrado a um robô humanoide com
expressões ultrarrealistas ou se um programa escrever poemas ou compuser
músicas, como já é o caso, nossos sentidos biológicos podem ser facilmente
enganados.
"Estamos em um hype midiático em torno da IA",
adverte Bender.
"E muito dinheiro é investido. Assim, os funcionários
desse setor sentem que trabalham em algo importante, algo real, e não
necessariamente têm a distância necessária".
"Futuro da humanidade"
Como, então, alguém poderia determinar com precisão se uma
entidade artificial se torna sensível e consciente?
"Se conseguíssemos substituir tecidos neurais por
chips, seria um sinal de que as máquinas podem ser potencialmente
conscientes", aponta Schneider.
A especialista acompanha de perto o progresso da Neuralink,
uma empresa fundada por Elon Musk para fabricar implantes cerebrais para fins
médicos, mas também para "garantir o futuro da humanidade, como
civilização, em relação à IA", segundo o magnata.
Musk, dono da Tesla e da SpaceX, faz parte daqueles que têm
a visão de que máquinas todo-poderosas podem assumir o controle.
Para Mark Kingwell, é exatamente o oposto. Se um dia
aparecer uma entidade autônoma, capaz de usar um idioma, mover-se por conta
própria e expressar preferências e fraquezas, “será importante não a considerar
uma escrava […] e protegê-la”, diz.