Pesquisar aqui

terça-feira, 3 de maio de 2022

Martha Gabriel, especialista em inteligência artificial: "Em 30 anos, a humanidade será uma nova coisa, não mais o que a gente é"

Nas próximas três décadas ou um pouco mais, seres humanos se misturarão a máquinas – e vice-versa. Essa é uma das projeções da professora de inteligência artificial na PUC-SP Martha Gabriel, ícone multidisciplinar nas áreas de negócios, tendências e inovação e uma das pensadoras digitais mais influentes do Brasil. Futurista pelo Institute For The Future (IFTF) e engenheira de formação, a pesquisadora é pós-graduada em Marketing e Design, mestre em Artes pela ECA/USP e tem formação executiva no MIT Sloan School of Management, nos EUA. Autora dos best-sellers Marketing na Era Digital, Educar: a (R)Evolução Digital na Educação Você, Eu e os Robôs, Martha defende que, a partir da união homo sapiens-máquina, poderemos viver para sempre. Embora pareça ficção científica, esse cenário já é perceptível, segundo ela, no uso de impressoras 3D para reprodução de órgãos humanos. Na quarta-feira (18/5), ela, Ronaldo Lemos e Fernando Schüler farão um debate online que lançará o Fronteiras do Pensamento 2022. Eles discutirão como a rápida mutação tecnológica irá transformar a humanidade nos próximos 30 anos.

Vamos começar com uma pergunta simples (risos): como a revolução tecnológica pela qual estamos passando vai transformar ainda mais a nossa vida nos próximos 30 anos?

Nos próximos anos, a gente deve ter uma transformação mais profunda do que nos últimos 2 mil anos. Um estudo de uma universidade britânica estima que a inteligência artificial deve atingir o nível humano em quatro décadas. O que a gente viu nesses últimos dois, três anos, foi uma superaceleração. É impressionante o grau com que as máquinas têm evoluído, em termos de inteligência e de funcionalidades que complementam as nossas. Estamos começando a sentir a ponta do iceberg daquilo que será o ser humano se misturando com as máquinas. Não teremos futuro sem nos misturarmos com as máquinas. Não há como sobreviver a esse ritmo de mudança estonteante se não incorporarmos a máquina. O humano não consegue. Em termos de comparação, o biológico demora centenas, às vezes milhares de anos para mudar, para o próximo passo de evolução. Com a tecnologia, a gente pode hackear essa evolução, colocando funcionalidades na gente, imediatamente. Um exemplo é o projeto de Elon Musk (dono da Tesla e da SpaceX e que comprou o Twitter) de conectar o cérebro ao computador. É para daqui a 10 ou 15 anos. Já temos hoje impressora 3D, que imprime nariz, olho, coração. Isso está sendo implementado para consertar órgãos que as pessoas queiram. Isso leva a gente a outro patamar. Tanto que “humanidade” será um novo termo. Será uma nova coisa, não mais o que a gente é.
Tem uma coisa que se chama de “responsable AI” (inteligência artificial responsável). Basicamente, são diretrizes para garantir que decisões sejam explicáveis. Ou seja, a máquina tomou uma decisão, mas como e por que ela chegou a isso. Caso contrário, a gente não consegue saber se aquela decisão foi justa ou não. Outra questão é focar no ser humano. Para que isso ocorra, todas as pessoas envolvidas no desenvolvimento dessas tecnologias e dos dados têm de validá-los. Para mim, esse é o principal desafio. Vou muito aos EUA, a eventos que tratam de moral e ética da inteligência artificial. Todas as big techs tratam disso. Mas uma vez eu falei o seguinte: “A gente precisa incluir todos os grupos para que consigamos garantir moral e ética em inteligência artificial. Esses eventos não poderiam estar nos EUA, pois é caríssimo chegar ao Vale do Silício. Tinham de ser na África, no sertão do Brasil, na América Latina, em algum lugar pobre, para que a gente possa ouvir todas as vozes”. Porque apenas nós, elite do desenvolvimento, ficarmos discutindo o que é e o que não é bom também é antiético.  

Mas isso tem implicações morais e éticas muito preocupantes.

Tem uma coisa que se chama de “responsable AI” (inteligência artificial responsável). Basicamente, são diretrizes para garantir que decisões sejam explicáveis. Ou seja, a máquina tomou uma decisão, mas como e por que ela chegou a isso. Caso contrário, a gente não consegue saber se aquela decisão foi justa ou não. Outra questão é focar no ser humano. Para que isso ocorra, todas as pessoas envolvidas no desenvolvimento dessas tecnologias e dos dados têm de validá-los. Para mim, esse é o principal desafio. Vou muito aos EUA, a eventos que tratam de moral e ética da inteligência artificial. Todas as big techs tratam disso. Mas uma vez eu falei o seguinte: “A gente precisa incluir todos os grupos para que consigamos garantir moral e ética em inteligência artificial. Esses eventos não poderiam estar nos EUA, pois é caríssimo chegar ao Vale do Silício. Tinham de ser na África, no sertão do Brasil, na América Latina, em algum lugar pobre, para que a gente possa ouvir todas as vozes”. Porque apenas nós, elite do desenvolvimento, ficarmos discutindo o que é e o que não é bom também é antiético.  

Sem comentários:

Enviar um comentário

Comente de forma construtiva...

Nota: só um membro deste blogue pode publicar um comentário.