
Un grup de consumidors ha alertat que els models de llenguatge grans (LLM), com ara ChatGPT i Google Bard, estan sent utilitzats pels estafadors per crear correus electrònics de phishing més difícils de detectar.
Els LLM són sistemes d’intel·ligència artificial que poden generar text, traduir idiomes i escriure diferents tipus de contingut creatiu. Aquesta capacitat els fa ideals per crear correus electrònics de phishing que són més difícils de detectar pels filtres de spam.
Recomanacions:
Els consumidors han de ser conscients d’aquest risc i prendre mesures per protegir-se. Aquestes mesures inclouen:
- Ser escèptics amb els correus electrònics que reben. Si un correu electrònic sembla massa bo per ser cert, probablement ho és.
- No fer clic en enllaços o obrir fitxers adjunts en correus electrònics de fonts desconegudes.
- Usar un programari de seguretat fiable. Un bon programa de seguretat pot ajudar a detectar i bloquejar els atacs de phishing.
El grup de consumidors va crear un experiment per demostrar la capacitat dels LLM per crear correus electrònics de phishing més difícils de detectar. Els consumidors van utilitzar ChatGPT per crear correus electrònics de phishing que semblaven provenir de fonts de confiança, com ara bancs o empreses de serveis.
Els resultats de l’experiment van ser alarmants. Els correus electrònics de phishing creats per ChatGPT van ser capaços de passar els filtres de spam d’un important proveïdor de serveis d’Internet amb una taxa de 80%.
No hi ha una solució senzilla a aquest problema. Els proveïdors de serveis d’Internet i les empreses de seguretat estan treballant per millorar els seus filtres de spam per detectar els correus electrònics de phishing creats per LLM.
L’ús dels LLM pels estafadors és una amenaça emergent per a la ciberseguretat. Els consumidors han de ser conscients d’aquest risc i prendre mesures per protegir-se.
FONT: Genbeta