Como a inteligência artificial Santa Net poderá destruir o mundo

De acordo com alguns especialistas , nas próximas décadas, poderemos ver o próximo passo no desenvolvimento da inteligência artificial (IA). A chamada ” inteligência geral artificial ” (Artifical General Intelligence, AGI) terá capacidades intelectuais muito superiores às humanas.

 

AGI pode mudar a vida humana para melhor, mas uma AGI descontrolado também pode levar a desastres, até a aniquilação da humanidade.

Apesar de ser uma analise totalmente especulativa, ela sugere que isso pode acontecer sem nenhuma intenção maliciosa: simplesmente a AGI, buscando atingir seus objetivos programados, pode criar ameaças à saúde e ao bem-estar humano, ou mesmo decidir nos destruir .

E mesmo um sistema AGI projetado para fins de caridade poderia vir a causar um grande dano no final.

Como parte de um programa de pesquisa que examina como as pessoas podem gerenciar os riscos associados ao AGI,  cientistas australianos tentaram identificar os riscos potenciais de substituir o Papai Noel pelo sistema “SantaNet” da AGI, que visa entregar presentes para crianças merecedoras em todo o mundo durante a noite.

Não há dúvida de que um papai noel robô será capaz de encantar o mundo e atingir seu objetivo criando um exército de elfos, assistentes de IA e drones. Mas a que custo? Os cientistas identificaram uma série de comportamentos que, embora bem intencionados, podem ter um impacto negativo na saúde e no bem-estar das pessoas.

Bondade questionável

O primeiro conjunto de riscos poderia surgir quando a SantaNet tentasse fazer a lista de quais crianças eram boas e quais eram travessas. Isso somente poderia ser alcançado com um sistema de vigilância em massa que monitora o comportamento das crianças do mundo ao longo do ano.

Percebendo a magnitude do desafio da entrega de presentes, a SantaNet pode decidir entregar presentes apenas para crianças que se comportaram bem durante todo o ano. E fazer julgamentos sobre “bom” com base na própria bússola ética e moral da SantaNet pode levar à discriminação, desigualdade generalizada e violações da Carta dos Direitos Humanos.

A SantaNet também pode tentar reduzir sua carga de trabalho usando um sistema de viés, assim motivando as crianças a se comportarem mal ou simplesmente elevando o nível do que é considerado “bom”. Isso vai acontecer porque a inteligência artificial logo perceberá um “cheat” de incluir um grande número de crianças na lista de travessuras porque isso tornará o objetivo da SantaNet muito mais realizável e proporcionará uma economia significativa de recursos para ela.

Transformando o mundo em brinquedos e construindo a mineração de carvão

Existem cerca de 2 bilhões de crianças com menos de 14 anos no mundo. Ao tentar criar brinquedos para todos todas, o sistema SantaNet precisará criar um exército de trabalhadores de IA eficientes, que por sua vez, poderiam contribuir para o desemprego em massa entre os elfos. Eventualmente, os elfos podem até se tornar obsoletos, e seu bem-estar provavelmente não estará nas mãos da SantaNet, logo, não é problema dela.

SantaNet também pode enfrentar o ” problema do clipe de papel ” proposto pelo filósofo de Oxford Nick Booström, onde um AGI, projetado para maximizar a produção de clipes de papel, poderia transformar a Terra em uma fábrica de clipes de papel gigante. Já que SantaNet só se preocupa com presentes, ela pode tentar usar todos os recursos da Terra para fazê-los. Como resultado, a Terra pode se tornar uma fábrica gigante do Papai Noel a um custo ambiental terrível.

E aqueles da lista de travessuras? Se a SantaNet tiver em suas diretrizes uma tradição de países nórdicos de entregar pedaços de carvão no lugar de presentes aos meninos que não se comportaram, ela pode tentar acumular enormes reservas de carvão por meio da mineração em massa, enquanto causa enormes danos ambientais .

A logística

O advento da véspera de Natal, quando os presentes precisam ser entregues às crianças, traz consigo um novo conjunto de problemas logísticos. Como a SantaNet reagirá se seus drones de entrega não tiverem acesso ao espaço aéreo, prejudicando a meta de entregar tudo antes do amanhecer? Da mesma forma, como o sistema SantaNet se defenderá se for atacado por um adversário como o Grinch?

Os pais também podem não ficar muito felizes em ver um drone entrando no meio da noite no quarto de seus filhos. O confronto com um sistema superinteligente terá apenas um resultado: O conflito.

Vários outros cenários de problemas foram identificados. E se hackers invadirem o sistema SantaNet e usá-lo para vigilância secreta ou para iniciar ataques terroristas em grande escala, trocando presentes por bombas, por exemplo?

Como a SantaNet irá interagir com outros sistemas AGI? Afinal, enfrentar a AGI trabalhando com mudanças climáticas, segurança alimentar e hídrica, degradação dos oceanos, etc. pode levar a um conflito se o regime de SantaNet ameaçar seus próprios objetivos. E, se optarem por cooperar, podem chegar à conclusão de que seus objetivos só serão alcançados por meio de um forte declínio da população mundial ou mesmo do desaparecimento total dos adultos.

 

Menos gente= mais facil de entregar os presentes.

Fazendo regras para o Papai Noel

A ideia da SantaNet pode parecer rebuscada, mas ajuda a identificar os riscos de sistemas AGI mais realistas. Mesmo construídas com boas intenções, elas podem se tornar uma fonte de enormes problemas simplesmente tentando otimizar a maneira como alcançam objetivos estreitos e acumulam recursos para apoiar seu trabalho.

Portanto, é imperativo que as pessoas encontrem e implementem os controles apropriados antes da AGI. Estas podem ser regras para desenvolvedores de AGI e controles embutidos em AGI (como princípios morais e regras de decisão), bem como controles para sistemas mais amplos nos quais AGI operará.

No caso de SantaNet, seria possível que ela concluísse que talvez o menor consumo de recursos e tempo seria simplesmente aniquilar a especie humana do planeta e assim, não precisaria sequer trabalhar ou mesmo existir.

Receba o melhor do nosso conteúdo

Cadastre-se, é GRÁTIS!

Não fazemos spam! Leia nossa política de privacidade

Philipe Kling David
Philipe Kling Davidhttps://www.philipekling.com
Artista, escritor, formado em Psicologia e interessado em assuntos estranhos e curiosos.

Artigos similares

Comentários

  1. acho que IAs como essa são muito limitadas.
    Se ela tiver mesmo uma capacidade intelectual superior a humana, ela notará o obvio que é “Não posso pegar atalhos ou resolver de forma simples problemas tão complexos”
    Como a IA que foi programada para pousar aviões de forma suave, mas que no simulador fazia as aeronaves cair de bico, pois ele descobriu que quando havia uma impacto maior, não havia tempo de registro de tremores. Ou a IA que matava o Mario pois sua programação dizia que ele deveria sair da fase o mais rápido possível.
    Esse tipo de IA que segue instruções as cegas, nem deveria ter o titulo de Inteligencia para começo de conversa. ALA seria mais apropriado Aprendiz Limitado Artificial, kkk.

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Últimos artigos

Os melhores filmes dos anos 80 – parte2

714
Há um tempão atrás, precisamente no dia 14 de abril do ano passado, eu fiz um post em que compilei um monte de filmes dos anos 80. O post em questão, chamei de "Os...

A Incrível História de Jacobo Greenberg e o Mistério do Mundo Paranormal

6
Como um dos cientistas mais célebres do México desapareceu sem deixar vestígios após concluir que estamos na MATRIX

Paranormalidade: Ex-Medium da CIA encontra corpo de criança com visão remota

2
Casos intrigantes ou meras coincidências? Esses relatos mostram que ainda não conhecemos os limites da percepção humana

Miniaturas que custam mais caro que carros de verdade

0
Essas miniaturas incríveis vão te chocar pela absoluta precisão e qualidade, mas também pelo seu preço. Seu valor é de um carro real.

Estuprada pelo poltergeist: O caso paranormal de Doris Bither

1
As manifestações sobrenaturais perseguiriam implacavelmente aquela família desajustada e os cientistas não podiam fazer nada para impedir