A cibersegurança surgiu como resposta à necessidade de proteger sistemas computacionais e infraestruturas digitais. Seu foco inicial estava na integridade, confidencialidade e disponibilidade da informação.
Durante décadas, essa abordagem foi predominantemente técnica. Proteger significava fortalecer redes, corrigir vulnerabilidades, controlar acessos e garantir a resiliência dos sistemas.
Com o avanço da conectividade e da digitalização, esse campo evoluiu. A segurança deixou de ser apenas uma questão de sistemas isolados e passou a considerar ambientes complexos, distribuídos e interconectados.
Foi nesse momento que o fator humano passou a ganhar relevância.
Ataques de engenharia social demonstraram que não era necessário invadir sistemas para comprometê-los. Bastava influenciar pessoas. A superfície de ataque, então, expandiu-se para além da tecnologia, alcançando comportamento, confiança e cultura organizacional.
Ainda assim, a abordagem permaneceu, em grande parte, reativa e comportamental. O foco estava em treinar usuários, reduzir erros e aumentar a conscientização.
Com a consolidação da Inteligência Artificial, surge uma nova ruptura.
Sistemas deixam de apenas executar instruções e passam a interpretar linguagem, organizar conhecimento e influenciar decisões. A tecnologia passa a atuar diretamente na mediação do pensamento.
Nesse cenário, compreender o humano torna-se central. A psicanálise contribui ao demonstrar que percepção e decisão não são processos puramente racionais, mas atravessados por linguagem, inconsciente, desejo e estruturas simbólicas.
A cibersegurança, então, passa por um novo deslocamento.
A superfície de ataque não se limita mais à infraestrutura ou ao comportamento. Ela passa a incluir a forma como a informação é interpretada, como o contexto é construído e como as decisões são formadas.
Esse fenômeno se aproxima do que vem sendo discutido como guerra cognitiva, na qual o foco deixa de ser o sistema e passa a ser a mente.
Nesse contexto, a linguagem torna-se vetor de risco. A manipulação de contexto, a indução interpretativa e a construção de autoridade informacional passam a influenciar diretamente decisões organizacionais.
Esse movimento já pode ser observado em práticas como engenharia social avançada, manipulação de contexto em interações com inteligência artificial, indução de confiança em sistemas automatizados e dependência cognitiva de recomendações algorítmicas.
O problema deixa de ser apenas tecnológico e torna-se estrutural.
Organizações continuam protegendo sistemas, mas ainda não estão preparadas para proteger processos de decisão.
Diante desse cenário, torna-se necessário ampliar o olhar da cibersegurança.
Mais do que proteger ativos digitais, é preciso proteger processos de interpretação, dinâmicas de confiança e estruturas de tomada de decisão.
Essa perspectiva dialoga com uma linha de pesquisa que venho desenvolvendo na interseção entre cibersegurança, psicanálise e filosofia da tecnologia, na qual proponho que, na era da Inteligência Artificial, o humano não desaparece da segurança. Ele retorna como sua instância mais crítica.
Isso ocorre porque sistemas inteligentes não possuem responsabilidade ética. Eles ampliam a capacidade de decisão, mas não a substituem.
A decisão continua sendo humana e, portanto, vulnerável.
Nesse sentido, pensar cibersegurança hoje implica considerar não apenas a proteção de sistemas, mas a proteção da própria capacidade humana de julgar, interpretar e decidir em ambientes mediados por tecnologia.
Talvez o maior risco contemporâneo não esteja na máquina, mas na forma como passamos a confiar nela e a decidir a partir dela.
Sobre a autora
Evelin P. atua na interseção entre cibersegurança, psicanálise e filosofia da tecnologia, investigando como percepção, linguagem e decisão passam a integrar a superfície de risco em ambientes mediados por Inteligência Artificial. Seu trabalho foca no estudo do risco humano como dimensão central da segurança contemporânea.
https://www.cyberpsique.com.br
https://www.linkedin.com/in/cyberpsique

