10 de set. de 2023

Dicas para falar para as crianças sobre o ChatGPT e IA

Collage produzido com imagem gerada pelo DALL-E2
 
 
Aqui estão seis dicas essenciais do MIT Technology Review sobre como começar a dar ao seu filho uma educação em IA. Serve também para os professores. 

Como achei interessante fiz esta tradução.

1. Não se esqueça: a IA não é sua amiga

 
Os chatbots são construídos para fazer exatamente isso: conversar. O tom amigável e coloquial que o ChatGPT adota ao responder perguntas pode fazer com que os alunos esqueçam facilmente que estão interagindo com um sistema de IA, e não com um confidente de confiança. Isto poderia aumentar a probabilidade de as pessoas acreditarem no que estes chatbots dizem, em vez de tratarem as suas sugestões com ceticismo. Embora os chatbots sejam muito bons em parecer um ser humano solidário, eles apenas imitam a fala humana a partir de dados extraídos da Internet, diz Helen Crompton, professora da Old Dominion University especializada em inovação digital na educação.

“Precisamos lembrar as crianças de não fornecerem informações pessoais confidenciais a sistemas como o ChatGPT, porque tudo isso vai para um grande banco de dados”, diz ela. Depois que seus dados estão no banco de dados, torna-se quase impossível removê-los. Ele poderia ser usado para gerar mais dinheiro para empresas de tecnologia sem o seu consentimento, ou poderia até mesmo ser extraído por hackers.

2. Os modelos de IA não substituem os mecanismos de pesquisa

 
Grandes modelos de linguagem são tão bons quanto os dados com os quais foram treinados. Isso significa que, embora os chatbots consigam responder perguntas com textos que podem parecer plausíveis, nem todas as informações que eles oferecem serão corretas ou confiáveis. Os modelos de linguagem de IA também são conhecidos por apresentar informações falsas como se fosse fatos verdadeiros. E dependendo de onde esses dados foram recolhidos, podem perpetuar preconceitos e estereótipos potencialmente prejudiciais. Os alunos devem tratar as respostas dos chatbots como deveriam tratar qualquer tipo de informação que encontrem na internet: de forma crítica.

“Essas ferramentas não são representativas de todos – o que elas nos dizem é baseado naquilo em que foram treinados. Nem todo mundo está na Internet, então isso não será refletido”, diz Victor Lee, professor associado da Escola de Pós-Graduação em Educação de Stanford, que criou recursos gratuitos de IA para currículos do ensino médio. “Os alunos devem fazer uma pausa e refletir antes de clicarmos, compartilharmos ou repassarmos e sermos mais críticos em relação ao que vemos e em que acreditamos, porque muito disso pode ser falso.”

Embora possa ser tentador confiar em chatbots para responder a perguntas, eles não substituem o Google ou outros mecanismos de pesquisa, diz David Smith, professor de educação em biociências na Universidade Sheffield Hallam, no Reino Unido, que está se preparando para ajudar seus alunos no conhecimento dos usos da IA para ajudar no próprio aprendizado. Os alunos não deveriam aceitar tudo o que os grandes modelos de linguagem dizem como um fato indiscutível, diz ele, acrescentando: “Qualquer que seja a resposta que eles lhe derem, você terá que verificá-la”.

3. Os professores podem acusar você de usar uma IA quando você não o fez

 
Um dos maiores desafios para os professores agora que a IA generativa alcançou as massas é trabalhar quando os alunos usam a IA para escrever as suas tarefas. Embora muitas empresas tenham lançado produtos que prometem detectar se o texto foi escrito por um ser humano ou por uma máquina, o problema é que as ferramentas de detecção de texto de IA não são confiáveis e é muito fácil enganá-las. Tem havido muitos exemplos de casos em que os professores presumem que uma redação foi gerada pela IA, quando na verdade não foi.

Familiarizar-se com as políticas de IA da escola do seu filho ou com os processos de divulgação de IA (se houver) e lembrar seu filho da importância de cumpri-los é um passo importante, diz Lee. Se o seu filho foi injustamente acusado de usar IA em uma tarefa, lembre-se de manter a calma, diz Crompton. Não tenha medo de contestar a decisão e perguntar como ela foi tomada, e sinta-se à vontade para apontar os registros que o ChatGPT mantém das conversas de um usuário individual se precisar provar que seu filho não levantou o material diretamente, acrescenta ela.

4. Os sistemas de recomendação são projetados para fisgá-lo e podem mostrar coisas ruins

 
É importante compreender e explicar às crianças como funcionam os algoritmos de recomendação, diz Teemu Roos, professor de ciências da computação na Universidade de Helsínque, que está desenvolvendo um currículo sobre IA para escolas finlandesas. As empresas de tecnologia ganham dinheiro quando as pessoas assistem a anúncios em suas plataformas. É por isso que desenvolveram algoritmos de IA poderosos que recomendam conteúdo, como vídeos no YouTube ou TikTok, para que as pessoas fiquem fisgadas e permaneçam na plataforma o maior tempo possível. Os algoritmos rastreiam e medem de perto os tipos de vídeos que as pessoas assistem e, em seguida, recomendam vídeos semelhantes. Quanto mais vídeos de gatos você assistir, por exemplo, maior será a probabilidade de o algoritmo pensar que você deseja ver mais vídeos de gatos.

Esses serviços tendem a orientar os usuários para conteúdos prejudiciais, como a desinformação, acrescenta Roos. Isso ocorre porque as pessoas tendem a se concentrar em conteúdos estranhos ou chocantes, como desinformação sobre saúde ou ideologias políticas extremas. É muito fácil ser jogado na toca do coelho ou preso em um laço, então é uma boa ideia não acreditar em tudo que você vê online. Você também deve verificar as informações de outras fontes confiáveis.

5. Lembre-se de usar IA com segurança e responsabilidade

 
A IA generativa não se limita apenas a texto: existem muitos aplicativos deepfake gratuitos e programas da web que podem impor o rosto de alguém no corpo de outra pessoa em segundos. Embora os estudantes de hoje provavelmente tenham sido alertados sobre os perigos de compartilhar imagens íntimas online, devem ser igualmente cautelosos ao carregar rostos de amigos em aplicações desse tipo – especialmente porque isso pode ter repercussões legais. Por exemplo, os tribunais consideraram os adolescentes culpados de espalhar pornografia infantil por enviarem material explícito sobre outros adolescentes ou até sobre eles próprios.

“Temos conversas com crianças sobre comportamento on-line responsável, tanto para sua própria segurança quanto para não assediar, "doxx" ou "catfishing" qualquer outra pessoa, mas também devemos lembrá-las de suas próprias responsabilidades”, diz Lee. “Assim como rumores desagradáveis se espalham, você pode imaginar o que acontece quando alguém começa a divulgar uma imagem falsa.”
 
*doxxing = significa divulgar informações privadas de uma pessoa para assediar, ameaçar ou se vingar dela.
*catfish = a prática de pessoas que criam perfis com informações e fotos falsas na internet para enganar emocional e/ou financeiramente suas vítimas.


Também ajuda a fornecer às crianças e adolescentes exemplos específicos dos riscos legais ou de privacidade do uso da Internet, em vez de tentar falar com eles sobre regras ou diretrizes abrangentes, salienta Lee. Por exemplo, explicar-lhes como as aplicações de edição facial de IA podem reter as imagens que carregam, ou apontar-lhes notícias sobre plataformas que estão sendo pirateadas, pode causar uma impressão maior do que avisos gerais para “ter cuidado com a sua privacidade”, diz ele.


6. Não esqueça o que a IA realmente faz de bom

 
Nem tudo é desgraça e tristeza. Embora muitas das primeiras discussões sobre IA na sala de aula girassem em torno de seu potencial como uma ajuda para trapacear, quando usada de forma inteligente, pode ser uma ferramenta extremamente útil. Os alunos que têm dificuldade para entender um tópico complicado podem pedir ao ChatGPT que o descreva passo a passo, ou para reformulá-lo como um rap, ou para assumir a personalidade de um professor especialista em biologia para permitir que testem seus próprios conhecimentos.  Também é excepcionalmente bom para elaborar rapidamente tabelas detalhadas para comparar os prós e contras relativos de certas faculdades, por exemplo, que de outra forma levariam horas para serem pesquisadas e compiladas.

Pedir a um chatbot glossários de palavras difíceis, ou para praticar questões de história antes de um questionário, ou para ajudar um aluno a avaliar as respostas depois de escrevê-las, são outros usos benéficos, aponta Crompton. “Desde que nos lembremos do preconceito, da tendência para alucinações e imprecisões e da importância da literacidad digital – se um aluno a utiliza da forma correta, isso será óptimo”, diz ela. “Estamos todos descobrindo à medida que avançamos.”
 
Referência original:  Williams, Rhiannon; Heikkilä, Melissa . You need to talk to your kid about AI. Here are 6 things you should say. MIT Technology Review, September 5, 2023. https://www.technologyreview.com/2023/09/05/1079009/you-need-to-talk-to-your-kid-about-ai-here-are-6-things-you-should-say
 
versão em espanhol: Consejos del MIT de cómo hablar a los niños sobre el ChatGPT y la IA  https://gonzaloabio-ele.blogspot.com/2023/09/consejos-del-mit-de-como-hablar-los.html

Nenhum comentário: