AI
BadGPT’s: hoe cybercriminelen AI-chatbots misbruiken

BadGPT’s: hoe cybercriminelen AI-chatbots misbruiken

In de voortdurende evolutie van technologie vormen AI-modellen zoals ChatGPT een opvallend voorbeeld. Deze handige tools beloven veel voor de toekomst. Helaas gaan deze mogelijkheden ook gepaard met een duistere zijde, waar cybercriminelen de kracht van AI-modellen exploiteren voor phishing en andere vormen van cyberaanvallen. Op de schimmige paden van het internet duiken steeds meer kwaadaardige chatbots op, met namen als “BadGPT” en “FraudGPT”.

Wat zijn BadGPT’s?

BadGPT’s zijn chatbots die gebruikmaken van dezelfde kunstmatige intelligentie als OpenAI’s ChatGPT. Waar de meesten ChatGPT gebruiken voor het verbeteren van teksten en e-mails, zetten hackers gemanipuleerde versies van deze AI-chatbots in om phishing-e-mails te versterken. Ze gebruiken chatbots, sommige zelfs vrij beschikbaar op het open internet, om nepwebsites te creëren, malware te verspreiden en berichten aan te passen om zich voor te doen als vertrouwde entiteiten, zoals leidinggevenden.

Enkele van de meest beruchte BadGPT’s die momenteel in omloop zijn:

  • WolfGPT
  • DarkBARD
  • FraudGPT
  • WormGPT

Hoe werken deze kwaadaardige chatbots?

De meeste dark web-hacktools maken gebruik van open-source AI-modellen, zoals Meta’s Llama 2, of “gejailbreakte” modellen van leveranciers zoals OpenAI en Anthropic om hun diensten aan te drijven. Gejailbreakte modellen zijn gekaapt met technieken zoals “promptinjectie” om hun ingebouwde veiligheidscontroles te omzeilen. Hoewel bedrijven zoals Anthropic actief jailbreak-aanvallen bestrijden, blijft de dreiging bestaan.

De gevolgen van Ai-misbruik

Iedereen zag het waarschijnlijk wel aankomen. Krachtige technologie zal altijd misbruikt worden. En dat is jammer. Want zo krijgt het vertrouwen in het digitale tijdperk weer een deuk.

We schreven al eerder een blog over de vertrouwensproblemen in de digtale wereld: https://safe-connect.com/nl/vertrouwensproblemen-in-het-digitale-tijdperk/

Ai kan misbruikt worden. Dat is duidelijk. We hebben het al gezien bij het geval waar er expliciete foto’s van onder andere Taylor Swift gegenereerd werden. Gelukkig spande de bekende artiest een zaak aan en is iedereen op de hoogte dat dit een misdrijf is.

Je leest het volledige artikel hier: https://www.theguardian.com/technology/2024/jan/30/taylor-swift-ai-deepfake-nonconsensual-sexual-images-bill

Maar dit unieke incident tart elke verbeelding:

Eerder dit jaar betaalde een werknemer van een multinational in Hong Kong maar liefst $25,5 miljoen aan een cybercrimineel die zich voordeed als de financieel directeur van het bedrijf tijdens een door AI gegenereerde deepfake-conferentieoproep. Het gaat hier dus om live deepfakes die in realtime praten. De gedupeerde werknemer was dus overtuigd dat dit wel degelijk klopt en schreef het geld over Dit voorval illustreert hoe AI-chatbots, zoals BadGPT, een bedreiging vormen voor bedrijven en individuen.

Het volledige artikel vind je hier: https://edition.cnn.com/2024/02/04/asia/deepfake-cfo-scam-hong-kong-intl-hnk/index.html

Jezelf beschermen met Cybersecurity Awareness Training

Malware en phishing-e-mails die zijn geschreven door generatieve AI zijn bijzonder lastig te detecteren omdat ze zijn ontworpen om detectie te omzeilen. De enige manier om je organisatie ertegen te beschermen is door het menselijke bewustzijn rond digitaal gevaar te vergroten.

Dat doe je met een Cybersecurity Awareness Training. Met deze training leren jouw collega’s gevaren herkennen en de juiste actie te ondernemen. Op die manier ga je Phishing en Deepfakes tegen.