Uma equipe de cientistas do Google Research, do Alan Turing Institute e da Cambridge University revelou que está ensinando uma inteligência artificial a ver e ouvir ao mesmo tempo.
Para isso, os especialistas estão trabalhando em um novo transformador multimodal de última geração (SOTA) para IA. Em essência, esse tipo de sistema processa e categoriza dados de um tipo específico de fluxo de mídia.
Os cientistas informaram que o que buscam é “um modelo único e unificado, que atinge resultados competitivos ou de última geração para classificação de imagem, vídeo e áudio”, segundo o site The Next Web.
Apelidado de “PolyVit” o novo método, com o co-treinamento de diferentes tarefas em uma única modalidade, poderá “melhorar a precisão de cada tarefa individual e obter resultados de última geração em 5 conjuntos de dados de classificação de áudio e vídeo padrão”.
Ainda de acordo com os pesquisadores, o co-treinamento é simples e prático de implementar, pois não exige ajuste de hiperparâmetros para cada combinação de conjuntos de dados. Bastaria apenas adaptá-los ao treinamento padrão de tarefa única.
O The Next Web aponta que a evolução pode ser um grande negócio para o mundo corporativo, afinal, um dos maiores problemas que as empresas enfrentam na esperança de implementar pilhas de IA é a compatibilidade – existem centenas de soluções de aprendizado de máquina por aí e não há garantias de que funcionem juntas.
A publicação deixa claro, no entanto, que se trata de uma pesquisa inicial e, portanto, não há razão para acreditar que a novidade será amplamente implementada em breve.
Link de consulta: https://epocanegocios.globo.com/Tecnologia/noticia/2021/12/google-pesquisa-inteligencia-artificial-que-pode-ver-e-ouvir-ao-mesmo-tempo.html (pesquisado a 19/12/2021)
Sem comentários:
Enviar um comentário
Comente de forma construtiva...
Nota: só um membro deste blogue pode publicar um comentário.