Infelizmente, ainda hoje, quando você faz uma busca de
informação na Internet, os resumos gerados por IA que o Google proporciona
continuam sendo pouco confiáveis. Apesar de parecer verdadeiros, devem ser
lidos com muito cuidado.
As alucinações geradas por IA não são um tema novo, mas aqui
vou focalizar nos resumos que o Google pode gerar quando você faz uma pesquisa
no seu buscador on-line.
Esses resumos podem ajudar na obtenção de alguma informação
rápida, mas com demasiada frequência percebo que quando faço uma pesquisa de
algum termo ou assunto específico, as respostas possuem alguma informação que
não é verídica ou correta.
Vou dar um exemplo. Recentemente fiz uma pesquisa rápida
sobre métodos e abordagens no ensino de línguas antes de dar uma aula e o
resumo que apareceu, acompanhado de uma lista, tinha um elemento incorreto.
O perigo está em que diante
dos olhos de um estudante essa mesma informação poderia parecer totalmente correta.
Vou ser muito sincero. Isso me deixa muito preocupado.
Considero que é melhor ter uma informação insuficiente, pois sempre será
possível procurar mais em outras fontes, que o problema que representa que o Google proporcione
uma informação falsa que acreditamos que seja verdadeira.
É verdade que na parte inferior do texto resumo aparece uma advertência
de que a IA é experimental e pode conter erros, mas como o estudante vai
saber que não é verdadeira uma determinada parte dessa informação?
Vocês imaginam um estudante entregando um trabalho solicitado
e ter que dizer que não está bem quando ele acredita que não tem nenhum
problema. No final, não foi gerado pela IA?
Todos já conhecemos alguma notícia de problemas causados em
âmbitos diversos por informações falsas. A causa são as chamadas alucinações da
IA generativa, que considero que são um eufemismo para algo que na realidade é
uma falha nesse tipo de sistemas.
Não quero imaginar a situação hipotética de ter que ir a uma
consulta médica e o médico prescrever uma receita que diga embaixo com letras
miúdas. "Atenção: esta receita pode não ser totalmente
verdadeira."
Vocês permitiriam algo semelhante?
Sei que de fato é uma comparação exagerada, mas com ela
quero incentivar uma reflexão sobre por que deveríamos permitir algo parecido
em alguns campos e em outros não. A educação não é um assunto sério também,
assim como a saúde?
Talvez seja melhor procurar a informação nos livros, na
Wikipédia ou em outras fontes diretamente ou utilizar outros caminhos, mas de
fato, não podemos obviar que a IA generativa já está embarcada em nossos
dispositivos digitais e em quase todo o que fazemos com eles, marcando presença
com um constante chamado para que sejam utilizados para "solucionar nossos
problemas e dessa forma poder ser mais felizes".
"Seu complemento diário" é o slogan de uma IA como
se fosse alguma vitamina. Se vamos por esse caminho, vale lembrar que é verdade
que a falta de vitaminas provoca muitos problemas de saúde, mas seu excesso
também (entenda-se como os problemas que pode causar o uso acrítico das ferramentas com IA generativa). Continuemos.
Nesta mesma semana aconteceu outro caso de informação
parcialmente falsa que me motivou para escrever esta breve reflexão. Eu estava
rascunhando um texto sobre auto-heteroecoformação tecnológica e
precisava ler rapidamente uma obra bem específica para tomar a referência
bibliográfica.
Conheço algo sobre o tema e sei qual obra estava procurando,
mas precisava de novo a referência completa e data, que não lembrava bem. Com esse
objetivo em mente digitei na janela do Google "autoheteroecoformação +
leffa" porque estava procurando os dados de um capítulo de um livro escrito
por Maximina Freire e Vilson Leffa. Como o sobrenome Leffa é muito menos comum que Freire,
optei por digitar o termo específico que procurava + leffa.
O resultado foi como aparece nesta imagem:
Paulo Freire e Antonio Leffa? Como assim? Eles não foram os autores do conceito.O termo auto-heteroecoformação tecnológica foi sugerido primeiro por Maximina Freire em 2009. Ela e Vilson Leffa continuaram desenvolvendo a ideia no texto que eu estava procurando. Deixarei as duas referências no final.
Se não conheço bem o tema e me deixo guiar por essa
informação posso ser prejudicado.
Dessa forma, recomendo, mas uma vez, ter muito cuidado com
as pesquisas que sejam feitas. Parecia que esse tema negativo já tinha acabado
ou pelo menos reduzido, mas não é bem assim.
Como gosto muito de Perplexity decidi fazer a mesma
indagação nele.
Esta imagem mostra a captura de tela com o resultado, mas a indagação completa realizada com essa plataforma pode ser vista aqui.
Bom, pelo menos aqui não inventaram os nomes. A pesquisa não
deu nomes errados para os pesquisadores Freire e Leffa. Algumas referências não
são das melhores, pois para elaborar a explicação sobre o termo utiliza, por
exemplo, uma entrada de um blog, mas de fato, os outros artigos são relevantes.
De qualquer maneira, nos dois exemplos, Google e Perplexity,
sería necessário procurar nas referências dos textos que foram sugeridos para
encontrar o texto que eu estava procurando.
Dessa forma, voltamos para a antiga e imperiosa necessidade
de contribuir no ensino e desenvolvimento em nossos alunos das estratégias de
busca de textos acadêmicos com a qualidade necessária. Por exemplo, mostrar
como fazer pesquisas no Google acadêmico ordenadas por relevância ou por data,
como procurar quem cita quem, etc.
Fica o aviso para docentes e alunos.
Referências
FREIRE, Maximina Maria; LEFFA Vilson. J. A
auto-heteroecoformação tecnológica. In: MOITA LOPES, Luiz Paulo da. (org.).
Linguística Aplicada na Modernidade Recente: Festschrift para Antonieta Celani.
São Paulo: Parábola, 2013, p. 59-78.
FREIRE, Maximina Maria. Formação tecnológica de professores:
problematizando, refletindo, buscando... In: SOTO, Ucy; MAYRINK, Mônica
Ferreira; GREGOLIN, Isadora Valencise (orgs). Linguagem, educação e
virtualidade [online]. São Paulo: Editora UNESP; São Paulo: Cultura Acadêmica,
2009. https://doi.org/10.7476/9788579830174