Ética e Inteligência Artificial em TCCs: o que já está sendo regulado nas universidades brasileiras

Por que falar de ética e IA nos TCCs é urgente?

Ferramentas como ChatGPT, Copilot e Gemini já estão transformando o modo como estudantes escrevem, pesquisam e produzem conhecimento. No entanto, o uso dessas tecnologias em Trabalhos de Conclusão de Curso (TCCs) levanta uma questão essencial: até que ponto é ético deixar que uma máquina participe da autoria de um trabalho acadêmico?

Neste post, vamos discutir os principais dilemas éticos, as boas práticas e mostrar quais instituições brasileiras já estão regulando o uso da IA em atividades acadêmicas.


⚖️ Os principais dilemas éticos no uso de IA em TCCs

  1. Autoria e responsabilidade
    Se parte do texto é escrita por IA, quem é o verdadeiro autor? O estudante pode assumir total responsabilidade por algo que não redigiu integralmente?
  2. Transparência
    O uso da IA precisa ser declarado. Ocultar prompts ou trechos gerados pode ser interpretado como falta de honestidade acadêmica.
  3. Precisão e confiabilidade
    Modelos de IA podem inventar dados, distorcer conceitos ou criar referências falsas. O estudante precisa revisar criticamente tudo o que é gerado.
  4. Desigualdade de acesso
    Nem todos têm as mesmas ferramentas, o que pode criar vantagens injustas entre alunos.
  5. Aprendizado e autonomia
    Se a IA faz o trabalho mais difícil, o estudante aprende de fato? A linha entre assistência e dependência é tênue.
  6. Plágio e originalidade
    Mesmo sem copiar de outro autor, usar texto gerado pela IA sem atribuição pode ser entendido como plágio.

💡 Boas práticas para o uso ético da IA

  • Comunique-se com seu orientador: antes de usar IA, combine se e como ela pode ser empregada.
  • Registre o uso: anote os prompts utilizados e descreva as ferramentas no capítulo de metodologia.
  • Revise tudo: garanta que o conteúdo final tenha seu estilo, suas ideias e sua argumentação.
  • Seja transparente: mencione no trabalho que contou com apoio de IA generativa.
  • Valorize o aprendizado humano: use a IA como apoio, não como substituto da pesquisa.

🏛️ Universidades e instituições que já têm normas sobre IA

Diversas instituições brasileiras estão à frente na criação de diretrizes éticas sobre o uso de IA generativa em atividades acadêmicas. Veja alguns exemplos:

🏫 Instituição 📘 Documento / Política 🔍 Principais Pontos
SENAI CIMATEC (BA) Diretrizes sobre uso ético da IA generativa Transparência, privacidade, centralidade humana, exigência de relatar prompts usados.
Unicentro (PR) Diretrizes para uso de IA em pesquisas (2025) Incentiva uso responsável, ético e íntegro; exige registro do uso da IA.
Unicamp / UFPR / UFPE / UFG Guia “Uso Ético e Responsável da IA Generativa” Recomenda divulgar ferramentas utilizadas e proíbe IA como coautora.
USP – Revista Comunicação & Educação Política de uso de IA em publicações IA não pode ser autora; uso deve ser descrito no manuscrito.
Revista Saúde e Pesquisa (Unicesumar) Política de uso de IA generativa Permite IA apenas para revisar linguagem; proíbe gerar conteúdo científico.
Faculdade BP Diretrizes para o uso responsável de IA (2025) Aborda IA no ensino superior com foco em ética, transparência e responsabilidade.
STHEM Brasil Cartilha “Diretrizes para Políticas de IA no Ensino Superior” Foco em ética institucional, formação docente e boas práticas pedagógicas.

🧩 Como as instituições podem se preparar

Mesmo onde ainda não há norma específica, faculdades e centros universitários podem adotar uma política institucional baseada em quatro pilares:

  1. Transparência: exigir que o uso da IA seja descrito no trabalho.
  2. Limites claros: permitir IA apenas em atividades de apoio (revisão, formatação, checagem).
  3. Supervisão docente: orientar e acompanhar o uso.
  4. Formação crítica: capacitar estudantes e professores para compreender o potencial e os riscos da IA.

🌍 A perspectiva internacional

Organismos como a UNESCO e a OCDE também têm trabalhado em diretrizes para o uso ético da IA na educação, defendendo princípios de transparência, equidade, privacidade e responsabilidade. Essas referências globais podem inspirar o desenvolvimento de políticas nacionais mais consistentes.


✍️ Conclusão

A inteligência artificial não é inimiga da produção científica — mas sim uma ferramenta poderosa que precisa ser usada com consciência e ética. O TCC deve continuar sendo uma expressão da capacidade analítica e criativa do estudante, com a IA atuando apenas como assistente, nunca como autora.

Refletir antes de usar é o primeiro passo para usar bem.


🔗 Fontes e leituras recomendadas

Deixe um comentário