As pessoas têm dificuldade em distinguir entre imagens de rostos reais e de rostos gerados por inteligência artificial (IA), com os artificiais a gerarem impressões de maior confiança que os reais, concluiu um estudo agora divulgado.
O estudo de investigadores da Universidade de Lancaster, Reino Unido, e da Universidade da Califórnia, em Berkeley, nos Estados Unidos, consistiu na identificação como real ou não de um grupo de caras, umas reais e outras geradas por IA, usando o “StyleGAN2”, um algoritmo que produz os rostos artificiais a partir de características de um grande número de modelos reais. Publicados na revista Proceedings of the National Academy of Sciences (PNAS), os resultados do estudo levaram os investigadores a alertar para os riscos das “falsificações profundas” (deep fakes) e para a necessidade de se criarem mecanismos de salvaguarda contra esses riscos.
A incapacidade de as pessoas identificarem como artificiais imagens geradas por IA pode levar a que, num mundo digital, em que qualquer imagem ou vídeo pode ser falsificada, a autenticidade de qualquer gravação inconveniente ou indesejável pode ser posta em causa, dizem os autores do estudo, conduzido por Sophie Nightingale, da Universidade de Lancaster, e por Hany Farid, da Universidade da Califórnia, em Berkeley.
Os participantes no estudo foram convidados a distinguir rostos sintetizados através do “StyleGAN2” e rostos reais, e dizer qual o nível de confiança que os rostos evocavam e das respostas saiu a conclusão de que não só os rostos gerados sinteticamente eram altamente realistas como quase indistinguíveis dos reais, e considerados mais dignos de confiança.
Descobrir que os rostos sintéticos são mais dignos de confiança do que os rostos reais foi o mais interessante da experiência, dizem os investigadores, que admitem que tal se deva a que os rostos criados por IA se assemelham mais a um rosto considerado comum.
Sem comentários:
Enviar um comentário
Comente de forma construtiva...
Nota: só um membro deste blogue pode publicar um comentário.