De acordo com alguns especialistas , nas próximas décadas, poderemos ver o próximo passo no desenvolvimento da inteligência artificial (IA). A chamada ” inteligência geral artificial ” (Artifical General Intelligence, AGI) terá capacidades intelectuais muito superiores às humanas.
AGI pode mudar a vida humana para melhor, mas uma AGI descontrolado também pode levar a desastres, até a aniquilação da humanidade.
Apesar de ser uma analise totalmente especulativa, ela sugere que isso pode acontecer sem nenhuma intenção maliciosa: simplesmente a AGI, buscando atingir seus objetivos programados, pode criar ameaças à saúde e ao bem-estar humano, ou mesmo decidir nos destruir .
E mesmo um sistema AGI projetado para fins de caridade poderia vir a causar um grande dano no final.
Como parte de um programa de pesquisa que examina como as pessoas podem gerenciar os riscos associados ao AGI, cientistas australianos tentaram identificar os riscos potenciais de substituir o Papai Noel pelo sistema “SantaNet” da AGI, que visa entregar presentes para crianças merecedoras em todo o mundo durante a noite.
Não há dúvida de que um papai noel robô será capaz de encantar o mundo e atingir seu objetivo criando um exército de elfos, assistentes de IA e drones. Mas a que custo? Os cientistas identificaram uma série de comportamentos que, embora bem intencionados, podem ter um impacto negativo na saúde e no bem-estar das pessoas.
Bondade questionável
O primeiro conjunto de riscos poderia surgir quando a SantaNet tentasse fazer a lista de quais crianças eram boas e quais eram travessas. Isso somente poderia ser alcançado com um sistema de vigilância em massa que monitora o comportamento das crianças do mundo ao longo do ano.
Percebendo a magnitude do desafio da entrega de presentes, a SantaNet pode decidir entregar presentes apenas para crianças que se comportaram bem durante todo o ano. E fazer julgamentos sobre “bom” com base na própria bússola ética e moral da SantaNet pode levar à discriminação, desigualdade generalizada e violações da Carta dos Direitos Humanos.
A SantaNet também pode tentar reduzir sua carga de trabalho usando um sistema de viés, assim motivando as crianças a se comportarem mal ou simplesmente elevando o nível do que é considerado “bom”. Isso vai acontecer porque a inteligência artificial logo perceberá um “cheat” de incluir um grande número de crianças na lista de travessuras porque isso tornará o objetivo da SantaNet muito mais realizável e proporcionará uma economia significativa de recursos para ela.
Transformando o mundo em brinquedos e construindo a mineração de carvão
Existem cerca de 2 bilhões de crianças com menos de 14 anos no mundo. Ao tentar criar brinquedos para todos todas, o sistema SantaNet precisará criar um exército de trabalhadores de IA eficientes, que por sua vez, poderiam contribuir para o desemprego em massa entre os elfos. Eventualmente, os elfos podem até se tornar obsoletos, e seu bem-estar provavelmente não estará nas mãos da SantaNet, logo, não é problema dela.
SantaNet também pode enfrentar o ” problema do clipe de papel ” proposto pelo filósofo de Oxford Nick Booström, onde um AGI, projetado para maximizar a produção de clipes de papel, poderia transformar a Terra em uma fábrica de clipes de papel gigante. Já que SantaNet só se preocupa com presentes, ela pode tentar usar todos os recursos da Terra para fazê-los. Como resultado, a Terra pode se tornar uma fábrica gigante do Papai Noel a um custo ambiental terrível.
E aqueles da lista de travessuras? Se a SantaNet tiver em suas diretrizes uma tradição de países nórdicos de entregar pedaços de carvão no lugar de presentes aos meninos que não se comportaram, ela pode tentar acumular enormes reservas de carvão por meio da mineração em massa, enquanto causa enormes danos ambientais .
A logística
O advento da véspera de Natal, quando os presentes precisam ser entregues às crianças, traz consigo um novo conjunto de problemas logísticos. Como a SantaNet reagirá se seus drones de entrega não tiverem acesso ao espaço aéreo, prejudicando a meta de entregar tudo antes do amanhecer? Da mesma forma, como o sistema SantaNet se defenderá se for atacado por um adversário como o Grinch?
Os pais também podem não ficar muito felizes em ver um drone entrando no meio da noite no quarto de seus filhos. O confronto com um sistema superinteligente terá apenas um resultado: O conflito.
Vários outros cenários de problemas foram identificados. E se hackers invadirem o sistema SantaNet e usá-lo para vigilância secreta ou para iniciar ataques terroristas em grande escala, trocando presentes por bombas, por exemplo?
Como a SantaNet irá interagir com outros sistemas AGI? Afinal, enfrentar a AGI trabalhando com mudanças climáticas, segurança alimentar e hídrica, degradação dos oceanos, etc. pode levar a um conflito se o regime de SantaNet ameaçar seus próprios objetivos. E, se optarem por cooperar, podem chegar à conclusão de que seus objetivos só serão alcançados por meio de um forte declínio da população mundial ou mesmo do desaparecimento total dos adultos.
Fazendo regras para o Papai Noel
A ideia da SantaNet pode parecer rebuscada, mas ajuda a identificar os riscos de sistemas AGI mais realistas. Mesmo construídas com boas intenções, elas podem se tornar uma fonte de enormes problemas simplesmente tentando otimizar a maneira como alcançam objetivos estreitos e acumulam recursos para apoiar seu trabalho.
Portanto, é imperativo que as pessoas encontrem e implementem os controles apropriados antes da AGI. Estas podem ser regras para desenvolvedores de AGI e controles embutidos em AGI (como princípios morais e regras de decisão), bem como controles para sistemas mais amplos nos quais AGI operará.
No caso de SantaNet, seria possível que ela concluísse que talvez o menor consumo de recursos e tempo seria simplesmente aniquilar a especie humana do planeta e assim, não precisaria sequer trabalhar ou mesmo existir.
acho que IAs como essa são muito limitadas.
Se ela tiver mesmo uma capacidade intelectual superior a humana, ela notará o obvio que é “Não posso pegar atalhos ou resolver de forma simples problemas tão complexos”
Como a IA que foi programada para pousar aviões de forma suave, mas que no simulador fazia as aeronaves cair de bico, pois ele descobriu que quando havia uma impacto maior, não havia tempo de registro de tremores. Ou a IA que matava o Mario pois sua programação dizia que ele deveria sair da fase o mais rápido possível.
Esse tipo de IA que segue instruções as cegas, nem deveria ter o titulo de Inteligencia para começo de conversa. ALA seria mais apropriado Aprendiz Limitado Artificial, kkk.