top of page
Buscar

Estará a Inteligência Artificial a reescrever a nossa perceção de verdade e confiança?


Representação visual de uma rede neural artificial, simbolizando a complexidade e o potencial do pensamento criativo em inteligência artificial.
Representação visual de uma rede neural artificial, simbolizando a complexidade e o potencial do pensamento criativo em inteligência artificial.

A OpenAI está a caminho de ter 700 milhões de utilizadores ativos semanais do ChatGPT, um grande aumento em relação aos 500 milhões registados em março. Embora a inteligência artificial abranja muito mais do que apenas capacidades generativas, este campo relativamente novo — emergindo com destaque desde o advento das Redes Adversariais Generativas (GANs) em 2014 — tem assumido o centro da perceção pública.


Entrámos numa nova era em que a IA já não está confinada aos laboratórios académicos ou aos círculos de especialistas. Tornou-se uma tecnologia dominante — moldando a forma como trabalhamos, comunicamos e resolvemos problemas. A sociedade encontra-se agora numa encruzilhada, incerta sobre onde este rápido desenvolvimento nos levará, mas claramente a avançar num caminho acelerado em direcção à transformação digital.


Como em toda a grande mudança tecnológica, os benefícios são acompanhados de riscos. E os criminosos são rápidos a explorar estes avanços para fins maliciosos. Entre os desenvolvimentos mais preocupantes estão novos vectores de ataque, como a injecção instantânea de dados e a amplificação perturbadora de uma ameaça clássica: a engenharia social.


A Ameaça Deepfake


Os Deepfakes — meios sintéticos que replicam de forma convincente vozes, expressões faciais e gestos — existem há cerca de cinco anos. Mas o que antes exigia recursos significativos para ser produzido, está agora acessível a quase qualquer pessoa. As redes sociais fornecem dados de treino abundantes, e a IA tornou a criação de imitações realistas mais fácil do que nunca. Sessenta e seis por cento dos inquiridos no AI Pulse Survey esperam que as ciberameaças de deepfake se tornem mais sofisticadas e disseminadas nos próximos 12 meses, mas apenas 21% afirmam que as suas organizações estão a investir ativamente em ferramentas para detetar e mitigar as ameaças de deepfake.


Estas vozes e rostos fabricados comprometem os sinais não verbais de confiança em que os humanos confiam — tom de voz, sinais faciais e gestos —, contornando o ceticismo lógico que as nossas mentes normalmente aplicariam.


O que torna esta ameaça ainda mais insidiosa é a convergência de tecnologias:


  • Clones de voz gerados por IA

  • Spoofing de identificador de chamadas

  • Recursos de conversação em tempo real alimentados por grandes modelos de linguagem (LLMs)


Esta fusão permite automatizar e escalar golpes de voz personalizados, visando indivíduos e organizações com uma precisão alarmante.


Redefinir a Confiança na Era da IA


Isto levanta uma questão urgente: como podemos ainda confiar que estamos a falar com uma pessoa real?


Embora a IA possa imitar a aparência, a fala e até mesmo os traços de personalidade, há ainda uma coisa que não consegue replicar: a profundidade única do carácter humano. A intuição subtil, a inteligência emocional e a ligação interpessoal autêntica continuam a ser difíceis — senão impossíveis — para as máquinas realmente emularem.


Estas podem tornar-se a nossa última linha de defesa na corrida para preservar a verdade e a confiança num mundo impulsionado pela IA.



Autor: Vanilson Pedro, CISM, CRISC, ISO 27001:2022 Lead Auditor, CCNP, AWS Specialist

Publicado: 27/09/2025

 
 
 

1 comentário


Boa matéria.

Curtir

info@centrous.net

+27632545464

 

Urbanização Boa Vida, Via Expresso - Luanda, Angola

 

160 AG De Witt Dr, Bedfordview, Germiston, 1401- África do Sul

Siga-nos em:

  • LinkedIn
  • Instagram
  • Facebook

Copyright © 2025 CentroUs. Todos os direitos reservados.

bottom of page