A comissão de juristas que estuda a regulamentação da inteligência artificial concluiu a primeira fase dos trabalhos. Foram ouvidos mais de 60 especialistas, em 12 painéis que somaram mais de 20 horas de debate sobre as classes de inteligência artificial e seus diferentes usos, os impactos da tecnologia e seus riscos, a responsabilidade civil e modelos de regulação e fiscalização. Os especialistas defenderam a limitação e o banimento de tecnologias de alto risco para a sociedade, como as que afetam crianças e grupos vulneráveis, além das que reproduzam padrões de discriminação.
A COMISSÃO DE JURISTAS QUE ESTUDA A REGULAMENTAÇÃO DA INTELIGÊNCIA ARTIFICIAL CONCLUIU A PRIMEIRA FASE DOS TRABALHOS, DEDICADA A DEBATES.
OS ESPECIALISTAS DEFENDERAM A LIMITAÇÃO E O BANIMENTO DE TECNOLOGIAS DE ALTO RISCO PARA A SOCIEDADE. REPÓRTER ROBERTO FRAGOSO.
A comissão de juristas ouviu sugestões de mais de 60 especialistas em 12 painéis que somaram mais de 20 horas de debate. Os eixos de discussão foram as classes de inteligência artificial e seus diferentes usos, os impactos da tecnologia e seus riscos, a responsabilidade de desenvolvedores, fabricantes e usuários, além de modelos de regulação e fiscalização. A relatora do colegiado, Laura Mendes, concluiu que uma lei para a inteligência artificial deve prever regras específicas para cada tipo de programa inteligente, de acordo com o seu risco e aplicação.
Todos os participantes destacaram essa necessidade da regulação como forma de mitigação de seus riscos: vigilantismo, perda de autonomia, discriminação e risco à participação democrática. Todos os direitos humanos podem ser afetados pela inteligência artificial . Estamos falando então no fim, do nosso futuro. A complexidade do fenômeno exige uma combinação de instrumentos regulatórios, sempre respeitando a diversidade de aplicações e de riscos de inteligência artificial.
Os especialistas defenderam a limitação e o banimento de tecnologias de alto risco para a sociedade, como as que afetem crianças e grupos vulneráveis ou que repitam padrões de discriminação. Laura defendeu a criação de regras de prevenção e de punição, que valham desde a concepção dos aplicativos até sua utilização.
Ao reconhecermos o preconceito e o racismo estrutural no País, não é possível aceitar que técnicas de machine learning, que são extremamente hábeis para aprender sobre o nosso passado por meio de exemplos, simplesmente reproduzam, codifiquem e consolidem para o futuro essa discriminação pretérita e atual da sociedade. Aprender com o passado significa exatamente não repeti-lo, e para que isso se torne realidade no contexto das tecnologias de Inteligência Artificial, precisamos de padrões, obrigações, procedimentos, auditorias e orientações concretas e eficazes para toda a cadeia de desenvolvimento e aplicação.
A comissão ainda vai receber contribuições por escrito até o dia 10 de junho antes de apresentar o anteprojeto. Da Rádio Senado, Roberto Fragoso.
Sem comentários:
Enviar um comentário
Comente de forma construtiva...
Nota: só um membro deste blogue pode publicar um comentário.