Ecos de Foucault no Século XXI: tecnologias de segurança em tempos de inteligência artificial

Hoje, diante de cenários recorrentes de crise e da normalização da vigilância, as questões levantadas por Foucault continuam relevantes

Author Photo
por ABES
10:00 am - 12 de junho de 2025
Imagem: Shutterstock

A obra Vigiar e Punir: Nascimento da Prisão, publicada há 50 anos por Michel Foucault (1926–1984)1, é um marco teórico fundamental para compreender as transformações nos mecanismos de poder e de controle social das sociedades modernas. Nela, Foucault propõe um deslocamento analítico do estudo do poder: ao invés de focar as investigações exclusivamente nos mecanismos repressivos tradicionais — como leis e sanções —, ele destaca os aspectos que operam por meio das práticas cotidianas de disciplina e de vigilância. Sua análise revela como essas práticas moldam subjetividades, instituições e processos. 

Hoje, diante de cenários recorrentes de crise e da normalização da vigilância, as questões levantadas por Foucault continuam a suscitar reflexões relevantes. O uso de tecnologias de monitoramento (captação de dados e reconhecimento facial, por exemplo) e a gestão algorítmica atualizam e ampliam os dilemas éticos que ele já antecipou. 

Para aprofundar as reflexões aqui propostas, é fundamental compreender a própria noção de “disciplina” que ele propõe. Em Vigiar e Punir, ela é concebida como uma tecnologia de poder ou social que transcende instituições específicas e se infiltra em diversos espaços — como escolas, fábricas e hospitais. Atua como uma técnica de normalização, organizando-nos no espaço e no tempo: prescrevendo ritmos, movimentos e comportamentos de forma contínua e minuciosa. 

Essa análise emerge no contexto político da França pós-1968, período marcado por reformas institucionais, pressões por maior participação democrática, pluralismo social — com a crise do modelo gaullista — e o questionamento das estruturas tradicionais de autoridade. Foucault se engajou ativamente nas lutas sociais contra os sistemas de confinamento psiquiátrico e carcerário. Sua crítica às instituições — entendidas como engrenagens de um sistema mais amplo de poder — ainda ecoa com força. 

De forma complementar, em seus cursos posteriores no Collège de , Foucault introduz outras formas de poder, como as “tecnologias de segurança”, distintas da disciplina por se voltarem à gestão das populações como um todo. Se a disciplina incide sobre indivíduos, essa tecnologia opera com variáveis coletivas e probabilísticas — como o número de casos de uma doença, a quantidade de pessoas afetadas por desastres ou os índices de criminalidade. O foco desloca-se, assim, para a regulação de riscos, a antecipação de eventos e a organização de respostas preventivas. Para isso, recorre-se a ferramentas de conhecimento como as estatísticas. 

As ideias de Foucault mantêm sua pertinência diante dos desafios do mundo digital. À medida que a tecnologia avança, os mecanismos de poder tornam-se mais complexos. A coleta massiva de dados, os sistemas de reconhecimento facial e as plataformas de monitoramento articulam normas disciplinares a cálculos probabilísticos e a políticas públicas que reforçam uma lógica de segurança cada vez mais ostensiva. As análises em tempo real e a construção de modelos preditivos, longe de romperem com essa lógica, frequentemente a reproduzem — influenciando decisões que afetam grupos sociais marginalizados, muitas vezes sem transparência nem responsabilização. 

A inteligência artificial (IA) aplicada em câmeras de segurança — especialmente aquelas baseadas em visão computacional e aprendizado de máquina — vem sendo utilizada para analisar e identificar padrões de comportamento. Entre suas funções, estão a detecção de aglomerações repentinas, deslocamentos fora do fluxo previsto, padrões de vestimenta e comportamentos considerados atípicos. Ao fazer isso, essas tecnologias voltam a agrupar, sob critérios de risco ou de anomalia, populações díspares — como os considerados desviantes, loucos ou doentes, criminosos, pobres etc. 

Esse uso da IA levanta preocupações significativas, especialmente no que diz respeito à amplificação de preconceitos e de desigualdades presentes nos dados. Sistemas treinados com conjuntos de dados historicamente discriminatórios tendem a reproduzir e intensificar estigmas sociais, tornando-se instrumentos seletivos de controle. Indivíduos e grupos podem se tornar alvos desproporcionais de abordagens, de investigações ou de restrições a direitos não com base em evidências objetivas, mas em inferências derivadas de padrões históricos de exclusão, de estigmatização e de desigualdade. 

A propósito, o debate sobre IA também pode ser enriquecido à luz da noção de Foucault de “dispositivos” — arranjos heterogêneos de saberes, de práticas, de técnicas e de instituições que estruturam modos de vida e de relações sociais. Nesse contexto, a tecnologia não apenas mede ou observa: ela classifica, hierarquiza e intervém, tornando-se um agente ativo na produção de normas e da própria vida social. O poder, nessa perspectiva, não opera de forma vertical, mas circula, infiltra-se e molda condutas e expectativas cotidianas. 

Veja também: Limites da responsabilidade civil brasileira: dever de cuidado dos prestadores de serviços

Para o bem e para o mal, as tecnologias digitais não apenas vigiam e normatizam comportamentos, mas também identificam desvios — muitas vezes com base em padrões questionáveis — e induzem condutas consideradas desejáveis, segundo interesses controversos, por meio de sistemas de pontuação, de recompensas simbólicas e/ou de exclusões silenciosas. Como já apontava Foucault, trata-se de um poder que não se limita a reprimir; ele também produz. Produz verdades, trajetórias, identidades e desigualdades. 

Em síntese, no semicentenário do conhecido livro de Foucault, sua análise continua a ser um instrumental poderoso para compreender as relações entre tecnologias, risco e controle. A cada releitura de Vigiar e Punir, encontramos algo novo para refletir, um texto que se renova constantemente ao ser lido por sucessivas gerações e, assim, não permanece nunca o mesmo. 

Em tempos de hiperconectividade e de algoritmização da vida cotidiana, suas contribuições ajudam a identificar continuidades e transformações nos modos contemporâneos de governança e de regulação. É necessária uma ponderação mais aprofundada sobre as consequências sociais do uso dessas tecnologias, como a segregação e a criminalização de populações já estigmatizadas. Mais do que nunca, as reflexões de Foucault nos instigam a problematizar os vínculos entre os dispositivos de poder e de saber e a produção de formas de subjetividade. Apontam permanentemente para a atualidade, para as possibilidades e os riscos presentes nas tecnologias como práticas sociais e políticas. 

Para mais sobre Foucault e a obra Vigiar e Punir (1975) veja:
Seminário Temático “Vigiar e Punir” de Michel Foucault – Parte 1
Seminário Vigiar e Punir, 50 anos depois: contribuições para as Ciências Sociais 

00 Marcos Alavares 240x240 1 Ecos de Foucault no Século XXI: tecnologias de segurança em tempos de inteligência artificialProf. Dr. Marcos César Alvarez é sociólogo, professor Livre Docente no Departamento de Sociologia da Faculdade de Filosofia, Letras e Ciências Humanas (FFLCH) da Universidade de São Paulo (USP), e desenvolve atividades de ensino, pesquisa e extensão relacionadas aos domínios da Sociologia da punição e do controle social. É coordenador do Núcleo de Estudos da Violência (NEV) da USP.

MARCELO NERY Desenhando o futuro: tecnologia e inovação na saúde pública

Marcelo Batista Nery é pesquisador no Think Tank da ABES e na Cátedra Oscar Sala do Instituto de Estudos Avançados da USP (IEA-USP), coordenador de Transferência de Tecnologia e Head do Centro Colaborador da OPAS/OMS (BRA-61) do Núcleo de Estudos da Violência da Universidade de São Paulo. As opiniões expressas neste artigo não refletem, necessariamente, os posicionamentos da Associação.

 

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.