Logo Catalunya Diari
Logo Catalunya Diari
Logo Instagram
Logo Whatsapp
Una persona amb el seu mòbil blanc a la mà i un símbol de trucada

L'estafa de videotrucada que ha sortit cara: 20 milions d'euros

Els delinqüents han suplantat un directiu d?una multinacional amb l?objectiu d?enganyar més víctimes

Actualment, les estafes han evolucionat de maneres sorprenents i alarmants. Un cas recent a Hong Kong ha posat en evidència com els estafadors estan utilitzant tecnologies avançades.

És el cas, per exemple, del deepfake. Aquest incident subratlla la necessitat d'estar sempre alerta i ben informat sobre les noves tàctiques de frau.

Una videotrucada falsa que aconsegueix 20 milions d'euros

La tecnologia avança a passos de gegant. Una de les tècniques de què més estem escoltant parlar en aquests mesos és de la Intel·ligència Artificial. Ara, els estafadors també la fan servir per als seus enganys.

Un ciberdelinqüent duent a terme un frau mitjançant un ordinador
Els estafadors van suplantar un alt directiu per enganyar els treballadors | Getty Images

En aquest cas, a Hong Kong ha passat un fet que es pot estendre aviat a la resta del món. Els treballadors d'una multinacional van rebre una videotrucada falsa d'un directiu recreat per deepfake.

Els empleats van creure que la persona a l'altra banda era de debò el seu cap. Això va fer que transferissin ni més ni menys que 20 milions d'euros. I és que és complicat esbrinar la realitat amb tècniques tan professionals i sofisticades.

Què és el deepfake, la tècnica d'estafa més avançada

Els estafadors van utilitzar tecnologia de deepfake per clonar la veu i l'aparença de l'alt executiu de la companyia. Durant la videotrucada, els treballadors van creure estar parlant amb el seu superior i, confiats, van seguir les instruccions. Només era un cas de deepfake.

Una persona escrivint amb un portàtil
El deepfake és una tècnica avançada i perillosa | Getty Images

El deepfake és una tecnologia que utilitza intel·ligència artificial per crear vídeos i àudios falsos que semblen extremadament reals. Aquesta tecnologia pot clonar veus, gestos i expressions facials, fent que sigui molt difícil distingir entre allò real i allò fals. En el cas de Hong Kong, els estafadors van fer servir aquesta tecnologia per suplantar la identitat de l'executiu i dur a terme l'estafa.

Mesures de seguretat contra l'estafa del deepfake

Aquest cas ressalta la importància de verificar sempre la identitat de la persona amb què estem parlant. Sobretot, en situacions que involucren transferències de diners o informació sensible.

No hem de confiar cegament en allò que veiem i sentim en una videotrucada. És crucial utilitzar mètodes addicionals de verificació, com ara trucades telefòniques o correus electrònics, per confirmar la identitat de l'altra persona.

Una persona utilitzant un ordinador portàtil i una imatge superposada d'una mà sostenint diversos bitllets d'euro
Els delinqüents van aconseguir un botí de 20 milions d'euros | Getty Images, 89Stocker

Per protegir-vos d'aquesta mena d'estafes, és fonamental seguir algunes mesures de seguretat:

  • Verificació doble: sempre verifica la identitat de la persona amb què parles a través d'un segon canal de comunicació.
  • Capacitació: educa els empleats sobre les noves tàctiques d'estafa i com reconèixer-les.
  • Tecnologia de seguretat: utilitza programari de seguretat que pugui detectar i bloquejar intents de deepfake.
  • Polítiques internes: implementa polítiques internes que requereixin múltiples aprovacions per a transferències de diners.