Literacia em Inteligência Artificial: Competências, Desafios e Oportunidades
Quais são as novas habilidades necessárias para lidar com a inteligência artificial no contexto educacional? Neste post, exploramos como a inteligência artificial generativa (IAG) está transformando a educação, destacando as competências essenciais para a literacia em IA, os desafios éticos e as oportunidades que essas ferramentas oferecem para o desenvolvimento do pensamento crítico e da criatividade dos alunos.
Felipe Aristimuño
3/26/20256 min ler


Ferramentas como o ChatGPT, o Microsoft Copilot e o Google Gemini têm desafiado a educação com a sua capacidade de gerar conteúdos a partir de textos simples (os prompts), como redações complexas, imagens, códigos de programação e músicas. Esse impacto crescente tem gerado reflexões críticas em todo o mundo sobre as novas habilidades necessárias para a literacia em IA nos ambientes de ensino, além de levantar questões éticas e sobre o uso adequado dessas tecnologias de acordo com a idade dos alunos.
Neste contexto, diferentes países e organizações internacionais têm discutido formas de integrar a IA generativa (IAG) na educação eficazmente.
Na Austrália, o "Australian Framework for Generative AI in Schools" destaca a importância da transparência, equidade e segurança de dados, além de enfatizar a necessidade de ensinar os alunos a reconhecer e evitar vieses algorítmicos. O documento alerta especificamente para o risco de discriminação algorítmica, ou "bias" em IA, que ocorre quando os algoritmos são distorcidos por dados tendenciosos, resultando em decisões injustas ou discriminatórias. Por exemplo, em sistemas de geração de imagens, um algoritmo treinado com dados predominantemente de pessoas brancas pode criar retratos que não refletem adequadamente outras etnias, reforçando estereótipos. O referencial também sublinha a importância de garantir que as ferramentas de IAG proporcionem uma exposição equilibrada a ideias e perspetivas diversas.
No Canadá, o relatório "Responsible AI and Children" alerta para os riscos éticos do uso da IAG com jovens, destacando a necessidade de proteger a privacidade e os direitos das crianças, especialmente considerando as diferenças cognitivas entre as faixas etárias. O uso de dados comportamentais e informações pessoais para treinar IA levanta sérias preocupações éticas. O relatório "Learning Together for Responsible Artificial Intelligence" complementa essa visão, focando na literacia em IA e nas perceções públicas sobre a tecnologia. Ambos sublinham a importância de envolver crianças e adolescentes no desenvolvimento da IA, adotando uma abordagem regulatória centrada nos direitos, com ênfase na transparência, segurança e proteção da privacidade em todas as faixas etárias.
Essa preocupação também é evidente nos Estados Unidos, onde estados como a Geórgia, Califórnia e Colorado criaram diretrizes que enfatizam a proteção de dados pessoais e a integridade académica, alertando para os riscos da introdução inadvertida de informações sensíveis nos sistemas de IA.
No Reino Unido, o governo publicou um documento intitulado Generative artificial intelligence (AI) in education, reconhecendo tanto as oportunidades quanto os desafios que essa tecnologia traz. A principal prioridade é garantir o uso seguro e responsável da IA, destacando os riscos de informações imprecisas, vieses e infração de propriedade intelectual. O governo também sublinha a responsabilidade das escolas e faculdades na proteção de dados dos seus alunos. Além disso, o Conselho Conjunto para as Qualificações estabeleceu orientações para o uso da IAG nas avaliações, abordando práticas irregulares. O Grupo Russell, representando 24 universidades, defende a literacia em IA, a adaptação do ensino para incorporar a IAG de forma ética e a garantia da integridade académica.
A UNESCO, por sua vez, defende uma abordagem centrada no ser humano, promovendo valores como a inclusão, a equidade e a diversidade cultural. Já a União Europeia destaca a proteção de dados e a segurança como pilares fundamentais para a integração responsável da IAG na educação, especialmente quando se trata de sistemas classificados como "alto risco".
Com base nesses referenciais internacionais, propomos um marco para o desenvolvimento da literacia em IA em Portugal, contemplando diversas competências fundamentais e desafios, destacados a seguir:
Para os alunos dos 13 aos 18 anos (Terceiro Ciclo do Ensino Básico e Ensino Secundário), destaca-se como essencial a compreensão dos princípios básicos da IA, incluindo o funcionamento de algoritmos, redes neurais e sistemas de aprendizagem automática. É igualmente importante que aprendam a utilizar ferramentas de IA generativa de forma crítica e criativa, desenvolvendo competências como a engenharia de prompts para obter resultados mais eficazes. Avaliar criticamente os conteúdos gerados, identificando potenciais vieses ou imprecisões, é também fundamental, assim como reconhecer que essas ferramentas não possuem consciência nem julgamento ético humano.
A ética e a responsabilidade no uso da IA são outro aspeto central numa literacia em IA. Ensinar os jovens a compreender os riscos relacionados com a privacidade, segurança e integridade académica é crucial para garantir que utilizem estas tecnologias de forma transparente e responsável. Além disso, é importante que percebam como a IA impacta a sociedade, podendo tanto reforçar preconceitos como promover inclusão e diversidade, dependendo da forma como é implementada.
Dentre os desafios mais significativos para a literacia em IA, destaca-se a capacidade dessas ferramentas de gerar respostas com aparência “humanizada”, o que pode confundir os utilizadores e dificultar a distinção entre a IA e a inteligência humana. Essa ambiguidade na interação com respostas geradas por IA levanta questões sobre se o uso excessivo dessas tecnologias pode enfraquecer o pensamento crítico e a criatividade dos alunos.
Considerando que o acesso a ferramentas de IA por menores de 18 anos é regulado pelo controlo parental, é essencial refletir sobre a necessidade de garantir que todos os alunos tenham igualdade de acesso a essas tecnologias. Algumas famílias podem restringir esse acesso por motivos éticos, de segurança, económicos ou mesmo por receio ou desconhecimento das potencialidades da IA. Esse cenário exige um diálogo constante entre a escola e as famílias, de modo a prevenir que tais limitações resultem em novas formas de exclusão.
No entanto, é justamente por essas potencialidades que garantir o acesso equitativo à IAG se torna tão importante na escola. Esta tecnologia pode ser uma poderosa aliada na aprendizagem personalizada, adaptando os conteúdos ao ritmo e estilo de cada aluno. Ferramentas de IAG também incentivam a criatividade e a inovação, facilitando a criação de conteúdos multimédia e promovendo novas formas de expressão artística. Para além disso, a IAG oferece soluções inclusivas, potencialmente benéficas para alunos com necessidades educativas especiais. A literacia em IA é, portanto, essencial para que os jovens compreendam esta tecnologia e saibam utilizá-la de forma crítica e responsável. Ao equilibrar os benefícios com os desafios que a IAG apresenta, é possível garantir uma integração segura, inclusiva e inovadora da inteligência artificial na educação.
Referências
Australian Government Department of Education. (2023). Australian framework for generative artificial intelligence (AI) in schools. Retrieved from https://www.education.gov.au/schooling/resources/australian-framework-generative-artificial-intelligence-ai-schools
Canada CIFAR. (2024). Responsible AI and Children: Insights, Implications, and Best Practices. Retrieved from https://cifar.ca/wp-content/uploads/2024/04/CIFAR-Responsible-AI-and-Children-EN_Final.pdf
Innovation, Science and Economic Development Canada. (2022). Learning Together for Responsible Artificial Intelligence: Report of the Public Awareness Working Group. https://ised-isde.canada.ca/site/advisory-council-artificial-intelligence/en/public-awareness-working-group/learning-together-responsible-artificial-intelligence
Georgia Department of Education. (2025). Leveraging AI in the K-12 Setting: Ensuring the ethical, effective, and secure use of AI tools and systems in Georgia’s schools.
TeachAI. (2024). AI Guidance for Schools Toolkit. https://www.teachai.org/toolkit
California Department of Education. (2023). Artificial Intelligence: Learning with AI, Learning about AI. https://www.caeducatorstogether.org/resources/122176/artificial-intelligence-in-california-learning-with-ai-learning-about-ai
Colorado Education Initiative. (2024). Colorado Roadmap for AI in K-12 Education: Guidance for Integrating AI into Teaching and Learning. https://www.coloradoedinitiative.org/wp-content/uploads/2024/08/Colorado-Roadmap-for-AI-in-K-12-Education_August-2024.pdf
Washington Office of Superintendent of Public Instruction. (2024). Human-Centered AI Guidance for K–12 Public Schools. https://ospi.k12.wa.us/sites/default/files/2024-06/comprehensive-ai-guidance.pdf
Wisconsin Department of Public Instruction. (2024). AI Guidance for Enhancing K-12 and Library Education. https://dpi.wi.gov/sites/default/files/imce/imt/pdf/AI_Guidance_6-5-24.pdf
Delaware Department of Education. (2024). Generative AI in the Classroom Guidance. https://education.delaware.gov/wp-content/uploads/2024/07/delaware_generative_ai_guidance.pdf
European Commission. (2022). Ethical guidelines on the use of artificial intelligence (AI) and data in teaching and learning for Educators. https://data.europa.eu/doi/10.2766/153756
Centre for Global Higher Education. (2023, Outubro 19). Navigating opportunities and challenges of AI: Jisc’s national centre for AI in tertiary education [Vídeo]. YouTube.
UK Government. (2025, Janeiro 22). Generative artificial intelligence (AI) in education. GOV.UK. https://www.gov.uk/government/publications/generative-artificial-intelligence-in-education/generative-artificial-intelligence-ai-in-education
UNESCO. (2023). Guidance for generative AI in education and research. https://www.unesco.org/en/articles/guidance-generative-ai-education-and-research
Australian Human Rights Commission. (2023, Julho 14). Utilising ethical AI in the Australian Education System: Submission to the Standing Committee on Employment, Education and Training. https://humanrights.gov.au/our-work/legal/submission/utilising-ethical-ai-education-system