Anna Flavia Ribeiro, filósofa e diretora de pós-graduação da SP Tech, afirmou no IT Forum Trancoso 2026, em apresentação publicada em 19 de abril de 2026, que a inteligência artificial não representa automaticamente o futuro das organizações, mas tende a reproduzir o histórico real de decisões, prioridades e vieses já existentes nas empresas. A palestra ocorreu durante o evento voltado a CIOs e tratou de como a adoção de IA, sem reflexão filosófica e organizacional, pode congelar práticas antigas em vez de promover transformação.
De acordo com informações do IT Forum, a apresentação começou com o aviso de que seria densa e sem simplificações. Segundo a filósofa, o ecossistema dos CIOs vive um momento de perturbação marcado por três vetores: o colapso dos frameworks técnicos, a pressão regulatória cercada de ambiguidades conceituais e a erosão da autoridade técnica.
Ao tratar do primeiro ponto, Anna Flavia sustentou que modelos como Agile, DevOps e transformação digital já não conseguem responder às novas perguntas levantadas pela IA. Na avaliação dela, a dúvida sobre o que fazer com essa tecnologia não encontra solução apenas técnica, o que exigiria uma leitura mais ampla do problema enfrentado pelas organizações.
Por que a filósofa diz que a IA não é o futuro das organizações?
O centro da palestra foi a ideia de que a implementação de IA parte, muitas vezes, de uma premissa equivocada: a de que a empresa entrega ao sistema sua melhor versão. Para Anna Flavia Ribeiro, isso não acontece. O que os sistemas recebem é o registro do que efetivamente ocorreu ao longo do tempo, incluindo decisões tomadas sob pressão, prioridades definidas na prática e padrões mantidos porque não foram interrompidos.
“A IA não julga. Não filtra. Só aprende.”
A partir dessa leitura, ela apresentou o conceito de “congelamento da corporação”. Segundo a palestrante, quando a empresa não administra conscientemente a diferença entre repetir o que já foi feito e construir algo novo, a IA deixa de ser instrumento de transformação e passa a ampliar a estrutura anterior com escala, velocidade e aparência de objetividade.
“Congela os vieses, as hierarquias invisíveis, as perguntas e tudo isso com escala, velocidade e aparência de objetividade.”
Quais críticas ela fez à regulação e ao debate sobre autoridade técnica?
Na leitura da filósofa, parte das discussões regulatórias em torno da inteligência artificial apresenta questões que são, na essência, filosóficas, ainda que apareçam sob linguagem jurídica. Ela citou temas ligados a autonomia, responsabilidade e agência ao comentar o AI Act europeu, o debate brasileiro e a Lei Felca.
Durante a apresentação, Anna Flavia mostrou um slide gerado pelo Claude com a afirmação de que a Europa sofre com “inovação sufocada pela burocracia”. A provocação ao público foi identificar o problema da frase. A resposta, segundo ela, é que se trata de uma perspectiva norte-americana, e não de um fato objetivo. Com isso, a filósofa alertou para o risco de tomar saídas produzidas por grandes modelos de linguagem como verdades absolutas.
“Alguns LLMs refletem o modo norte-americano de pensar e estar no mundo. Pensamento crítico é não tomar essas verdades como verdades absolutas.”
Ao falar sobre autoridade técnica, ela rejeitou a interpretação de que o CIO teria simplesmente perdido relevância. Para Anna Flavia, o que se enfraqueceu foi um tipo mais frágil de autoridade. Em seu lugar, seria necessária uma atuação mais robusta, baseada menos na superioridade técnica e mais na capacidade de julgamento.
“O CIO deixou de ser o mais competente tecnicamente na sala.”
Qual saída foi proposta para empresas que adotam IA?
A solução defendida na palestra não foi apresentada como técnica, mas filosófica. Anna Flavia definiu filosofia como um conjunto de crenças racionais capaz de sustentar grandes escolhas e orientar decisões. Nesse contexto, argumentou que empresas e lideranças precisam escolher de forma consciente os princípios que orientam sua relação com a tecnologia.
“Se você não escolhe sua filosofia, alguém escolhe por você.”
Ela também criticou uma justificativa recorrente em debates éticos no setor de tecnologia: a ideia de que, se uma empresa não adotar determinada prática, outra adotará. Segundo a palestrante, esse raciocínio não constitui uma posição ética, mas uma forma de autojustificação diante da falta de convicção sobre os próprios princípios.
“A expressão ‘se eu não fizer, outro fará’ não é ética. É uma maneira de se desculpar perante a si mesmo porque você não está convicto das filosofias que te regem.”
Na parte final da exposição, a filósofa associou a ética aplicada à IA a uma responsabilidade moral distribuída entre diferentes camadas do processo, como arquitetura técnica, dados, modelo, plataforma e decisão humana. Segundo ela, esse arranjo ainda desafia estruturas éticas tradicionais, que costumam ser pensadas para sujeitos claramente identificáveis.
Entre os principais pontos defendidos por Anna Flavia Ribeiro, estão:
- a IA tende a reproduzir o histórico real da organização, e não uma versão idealizada dela;
- frameworks técnicos tradicionais podem ser insuficientes diante dos novos dilemas trazidos pela tecnologia;
- o debate regulatório envolve questões filosóficas sobre autonomia e responsabilidade;
- pensamento crítico é necessário para interpretar respostas de modelos de linguagem;
- a adoção de IA exige clareza sobre os princípios que orientam decisões corporativas.
No encerramento, ela citou Voltaire para sustentar que a incerteza pode ser desconfortável, mas a certeza absoluta é insustentável. A mensagem final ao público foi que nomear corretamente o problema já representa parte essencial do trabalho diante dos desafios impostos pela inteligência artificial.