Estará a Inteligência Artificial a reescrever a nossa perceção de verdade e confiança?
- Vanilson Pedro
- 27 de set.
- 2 min de leitura

A OpenAI está a caminho de ter 700 milhões de utilizadores ativos semanais do ChatGPT, um grande aumento em relação aos 500 milhões registados em março. Embora a inteligência artificial abranja muito mais do que apenas capacidades generativas, este campo relativamente novo — emergindo com destaque desde o advento das Redes Adversariais Generativas (GANs) em 2014 — tem assumido o centro da perceção pública.
Entrámos numa nova era em que a IA já não está confinada aos laboratórios académicos ou aos círculos de especialistas. Tornou-se uma tecnologia dominante — moldando a forma como trabalhamos, comunicamos e resolvemos problemas. A sociedade encontra-se agora numa encruzilhada, incerta sobre onde este rápido desenvolvimento nos levará, mas claramente a avançar num caminho acelerado em direcção à transformação digital.
Como em toda a grande mudança tecnológica, os benefícios são acompanhados de riscos. E os criminosos são rápidos a explorar estes avanços para fins maliciosos. Entre os desenvolvimentos mais preocupantes estão novos vectores de ataque, como a injecção instantânea de dados e a amplificação perturbadora de uma ameaça clássica: a engenharia social.
A Ameaça Deepfake
Os Deepfakes — meios sintéticos que replicam de forma convincente vozes, expressões faciais e gestos — existem há cerca de cinco anos. Mas o que antes exigia recursos significativos para ser produzido, está agora acessível a quase qualquer pessoa. As redes sociais fornecem dados de treino abundantes, e a IA tornou a criação de imitações realistas mais fácil do que nunca. Sessenta e seis por cento dos inquiridos no AI Pulse Survey esperam que as ciberameaças de deepfake se tornem mais sofisticadas e disseminadas nos próximos 12 meses, mas apenas 21% afirmam que as suas organizações estão a investir ativamente em ferramentas para detetar e mitigar as ameaças de deepfake.
Estas vozes e rostos fabricados comprometem os sinais não verbais de confiança em que os humanos confiam — tom de voz, sinais faciais e gestos —, contornando o ceticismo lógico que as nossas mentes normalmente aplicariam.
O que torna esta ameaça ainda mais insidiosa é a convergência de tecnologias:
Clones de voz gerados por IA
Spoofing de identificador de chamadas
Recursos de conversação em tempo real alimentados por grandes modelos de linguagem (LLMs)
Esta fusão permite automatizar e escalar golpes de voz personalizados, visando indivíduos e organizações com uma precisão alarmante.
Redefinir a Confiança na Era da IA
Isto levanta uma questão urgente: como podemos ainda confiar que estamos a falar com uma pessoa real?
Embora a IA possa imitar a aparência, a fala e até mesmo os traços de personalidade, há ainda uma coisa que não consegue replicar: a profundidade única do carácter humano. A intuição subtil, a inteligência emocional e a ligação interpessoal autêntica continuam a ser difíceis — senão impossíveis — para as máquinas realmente emularem.
Estas podem tornar-se a nossa última linha de defesa na corrida para preservar a verdade e a confiança num mundo impulsionado pela IA.
Autor: Vanilson Pedro, CISM, CRISC, ISO 27001:2022 Lead Auditor, CCNP, AWS Specialist
Publicado: 27/09/2025


Boa matéria.