Limites da inteligência artificial
Os humanos geralmente são bons em reconhecer quando erram, mas os sistemas de inteligência artificial não têm essa sagacidade.
Do mesmo modo que algumas pessoas, os sistemas de IA geralmente têm um grau de confiança que excede em muito suas habilidades reais. E, como uma pessoa superconfiante, muitos sistemas de inteligência artificial não sabem quando estão cometendo erros. Às vezes, é ainda mais difícil para um sistema de IA perceber quando está cometendo um erro do que produzir um resultado correto.
E este problema pode não ter correção porque a IA sofre de limitações inerentes devido a um paradoxo matemático centenário.
Pesquisadores da Universidade de Cambridge (Reino Unido) e da Universidade de Oslo (Noruega) afirmam que a instabilidade é o calcanhar de Aquiles da IA moderna, e que um paradoxo matemático mostra as limitações da inteligência artificial.
O problema está nas redes neurais, a ferramenta de última geração em IA, que imita aproximadamente as ligações entre os neurônios do cérebro. Os três pesquisadores demonstraram que existem problemas para os quais existem redes neurais estáveis e precisas, mas nenhum algoritmo consegue produzir tal rede - somente em casos específicos os algoritmos podem computar redes neurais estáveis e precisas.
O trio até propõe uma teoria de classificação que descreve quando as redes neurais podem ser treinadas para fornecer um sistema de IA confiável - o que só acontece, reforçando, sob certas condições específicas.
Paradoxo de Turing e Godel
O paradoxo identificado pelos pesquisadores remonta a dois gigantes da matemática do século 20: Alan Turing e Kurt Godel.
No início do século passado, os matemáticos estavam tentando justificar a matemática como a linguagem consistente definitiva da ciência. No entanto, Turing e Godel mostraram um paradoxo no coração da própria ciência dos números: É impossível provar se certas afirmações matemáticas são verdadeiras ou falsas, e alguns problemas computacionais não podem ser resolvidos com algoritmos.
E, na asserção mais conhecida de Turing e Godel, sempre que um sistema matemático é rico o suficiente para descrever a aritmética que aprendemos na escola, ele não pode provar sua própria consistência.
Décadas depois, o matemático Steve Smale propôs uma lista de 18 problemas matemáticos não resolvidos para o século 21. O 18º problema diz respeito aos limites da inteligência, tanto para os humanos quanto para as máquinas. "O paradoxo identificado pela primeira vez por Turing e Godel agora foi trazido para o mundo da IA por Smale e outros. Existem limites fundamentais inerentes à matemática e, da mesma forma, algoritmos de IA não podem existir para certos problemas," disse o professor Matthew Colbrook, um dos autores da nova demonstração.
O trio afirma em seu artigo que, por causa desse paradoxo, há casos em que boas redes neurais até podem existir, mas uma rede inerentemente confiável não pode ser construída. "Não importa quão precisos sejam seus dados, você nunca pode obter as informações perfeitas para construir a rede neural necessária," reforçou Vegard Antun, coautor do trabalho.
A impossibilidade de computar uma boa rede neural também é verdadeira independentemente da quantidade de dados de treinamento: Não importa quantos dados um algoritmo possa acessar, ele não produzirá a rede desejada. "Isso é semelhante ao argumento de Turing: Existem problemas computacionais que não podem ser resolvidos independentemente do poder de computação e do tempo de execução," disse Anders Hansen, o terceiro autor do artigo.
Sem comentários:
Enviar um comentário
Comente de forma construtiva...
Nota: só um membro deste blogue pode publicar um comentário.