De acordo com uma pesquisa publicada na revista Science Advances, os avanços feitos na inteligência artificial (IA) GPT-3, desenvolvido pela OpenAI, estão cada vez mais surpreendentes, uma vez que a tecnologia caminha a passos largos para se tornar mais “humanizada” — com suas publicações no Twitter sendo tão convincentes quando a de humanos.
O estudo em questão envolveu postagens no microblog de Elon Musk, onde discutiu 11 temas científicos diferentes, indo desde vacinas e COVID-19 até mudanças climáticas e evolução. Na sequência, o grupo encabeçado por Giovani Spitale, pediu ao GPT-3 que ele escrevesse novos tweets com informações precisas ou imprecisas.
Método de avaliação
Para conseguir testar se as criações da IA poderiam se passar por humanas, a equipe de pesquisadores uniram os conteúdos criados pela linguagem artificial com os feitos por pessoas. Dessa forma, os entrevistadores tiveram que identificar quais tweets foram feitos por outro ser humano e quais foram feitos pela máquina. Surpreendentemente, a grande maioria dos participantes acreditaram mais nas criações do GPT-3.
Na sequência, foi pedido para que os voluntários diferenciassem conteúdos verdadeiros de falsos entre as publicações, tornando a pesquisa ainda mais difícil — e comprovando a tese de que o avanço feito pelo GPT-3 pode ser capaz de substituir humanos.
As respostas foram coletadas virtualmente em um anúncio feito no Facebook e contou com a participação de 697 pessoas de diversas partes do mundo, com destaque para Reino Unido, Austrália, Canadá, Estados Unidos e Irlanda.
Uso indevido da IA
Porém, diferente de muitos, Spitale defende que esse não é objetivo da IA, e que existem formas de torná-la mais difícil de usa-la para disseminação de desinformação. “Não é inerentemente mau ou bom. É apenas um amplificador da intencionalidade humana“, pontua o pesquisador.
De qualquer forma, vale ressaltar que ao usar esse tipo de tecnologia, é importante usá-la com consciência, de modo que não prejudique outros internautas e/ou a si mesmo. Além disso, atividades ambíguas envolvendo IA podem ser passiveis de punição.
Comenta aqui! sua opinião sempre é importante