Por que falar de ética e IA nos TCCs é urgente?
Ferramentas como ChatGPT, Copilot e Gemini já estão transformando o modo como estudantes escrevem, pesquisam e produzem conhecimento. No entanto, o uso dessas tecnologias em Trabalhos de Conclusão de Curso (TCCs) levanta uma questão essencial: até que ponto é ético deixar que uma máquina participe da autoria de um trabalho acadêmico?Neste post, vamos discutir os principais dilemas éticos, as boas práticas e mostrar quais instituições brasileiras já estão regulando o uso da IA em atividades acadêmicas.
⚖️ Os principais dilemas éticos no uso de IA em TCCs
- Autoria e responsabilidade
Se parte do texto é escrita por IA, quem é o verdadeiro autor? O estudante pode assumir total responsabilidade por algo que não redigiu integralmente? - Transparência
O uso da IA precisa ser declarado. Ocultar prompts ou trechos gerados pode ser interpretado como falta de honestidade acadêmica. - Precisão e confiabilidade
Modelos de IA podem inventar dados, distorcer conceitos ou criar referências falsas. O estudante precisa revisar criticamente tudo o que é gerado. - Desigualdade de acesso
Nem todos têm as mesmas ferramentas, o que pode criar vantagens injustas entre alunos. - Aprendizado e autonomia
Se a IA faz o trabalho mais difícil, o estudante aprende de fato? A linha entre assistência e dependência é tênue. - Plágio e originalidade
Mesmo sem copiar de outro autor, usar texto gerado pela IA sem atribuição pode ser entendido como plágio.
💡 Boas práticas para o uso ético da IA
- Comunique-se com seu orientador: antes de usar IA, combine se e como ela pode ser empregada.
- Registre o uso: anote os prompts utilizados e descreva as ferramentas no capítulo de metodologia.
- Revise tudo: garanta que o conteúdo final tenha seu estilo, suas ideias e sua argumentação.
- Seja transparente: mencione no trabalho que contou com apoio de IA generativa.
- Valorize o aprendizado humano: use a IA como apoio, não como substituto da pesquisa.
🏛️ Universidades e instituições que já têm normas sobre IA
Diversas instituições brasileiras estão à frente na criação de diretrizes éticas sobre o uso de IA generativa em atividades acadêmicas. Veja alguns exemplos:
| 🏫 Instituição | 📘 Documento / Política | 🔍 Principais Pontos |
|---|---|---|
| SENAI CIMATEC (BA) | Diretrizes sobre uso ético da IA generativa | Transparência, privacidade, centralidade humana, exigência de relatar prompts usados. |
| Unicentro (PR) | Diretrizes para uso de IA em pesquisas (2025) | Incentiva uso responsável, ético e íntegro; exige registro do uso da IA. |
| Unicamp / UFPR / UFPE / UFG | Guia “Uso Ético e Responsável da IA Generativa” | Recomenda divulgar ferramentas utilizadas e proíbe IA como coautora. |
| USP – Revista Comunicação & Educação | Política de uso de IA em publicações | IA não pode ser autora; uso deve ser descrito no manuscrito. |
| Revista Saúde e Pesquisa (Unicesumar) | Política de uso de IA generativa | Permite IA apenas para revisar linguagem; proíbe gerar conteúdo científico. |
| Faculdade BP | Diretrizes para o uso responsável de IA (2025) | Aborda IA no ensino superior com foco em ética, transparência e responsabilidade. |
| STHEM Brasil | Cartilha “Diretrizes para Políticas de IA no Ensino Superior” | Foco em ética institucional, formação docente e boas práticas pedagógicas. |
🧩 Como as instituições podem se preparar
Mesmo onde ainda não há norma específica, faculdades e centros universitários podem adotar uma política institucional baseada em quatro pilares:
- Transparência: exigir que o uso da IA seja descrito no trabalho.
- Limites claros: permitir IA apenas em atividades de apoio (revisão, formatação, checagem).
- Supervisão docente: orientar e acompanhar o uso.
- Formação crítica: capacitar estudantes e professores para compreender o potencial e os riscos da IA.
🌍 A perspectiva internacional
Organismos como a UNESCO e a OCDE também têm trabalhado em diretrizes para o uso ético da IA na educação, defendendo princípios de transparência, equidade, privacidade e responsabilidade. Essas referências globais podem inspirar o desenvolvimento de políticas nacionais mais consistentes.
✍️ Conclusão
A inteligência artificial não é inimiga da produção científica — mas sim uma ferramenta poderosa que precisa ser usada com consciência e ética. O TCC deve continuar sendo uma expressão da capacidade analítica e criativa do estudante, com a IA atuando apenas como assistente, nunca como autora.
Refletir antes de usar é o primeiro passo para usar bem.