Online-Weiterbildung
Präsenz-Weiterbildung
Produkte
Themen
Dashöfer

Hacker nutzen ChatGPT für ihre Zwecke: Worauf wir in Zukunft achten müssen

11.01.2024  — Michelle Bittroff.  Quelle: Verlag Dashöfer GmbH.

Der Hype rund um ChatGPT und seine vielfältigen Möglichkeiten erhitzt seit einiger Zeit das Netz. Der Chatbot schreibt selbstständig ganze Hausarbeiten oder Social-Media-Posts, erleichtert die Arbeit mit Excel – und dient Hackern zum Schreiben gefälschter E-Mails oder gefährlicher Programmcodes. Was bedeutet das für die Zukunft der Cybersicherheit?

Hacker und Cyberkriminelle verfolgen mit ihren Angriffen das Ziel, finanzielle Vorteile oder Informationen zu erlangen, indem sie internetfähige Geräte wie Computer, Tablets, Smartphones oder sogar ganze Netzwerke kompromittieren. Diese organisierte Kriminalität greift seit Jahren verstärkt die deutsche Wirtschaft an. Laut einer Prognose des Digitalverbands Bitkom beläuft sich der jährliche Schaden durch Diebstahl von IT-Ausrüstung und Daten sowie durch digitale und analoge Industriespionage und Sabotage auf rund 206 Millionen Euro. Dabei werden die Angriffe und Techniken immer ausgefeilter.

Anzeige
Live-Online-Seminar: Welche rechtlichen Aspekte müssen beim Einsatz von KI beachtet werden?

Urheberrecht, Geschäftsgeheimnisse, Arbeitsrecht & Datenschutz

  • ✔ Urheberrechtliche Hindernisse bei der Anwendung von KI
  • ✔ Einsatz von KI und die Gefahr von Geschäftsgeheimnissen
  • ✔ Datenschutzrechtliche Herausforderungen beim Einsatz von KI meistern

Phishing, Scam und Malware-Erstellung

Phishing-Kampagnen zählen mitunter zu den häufigsten Angriffsarten. Diese zielen darauf ab, an persönliche Daten wie Passwörter oder Kreditkartendaten zu gelangen: Durch gefälschte E-Mails oder Webseiten wird den Opfern vorgegaukelt, dass es sich bei dem Täter um einen seriösen Kommunikationspartner handelt. Jedoch genügt ein Klick auf den falschen Button oder Link und der Täter erhält Zugriff auf sensible, private Daten.

Ähnlich verhält es sich beim Scam, zu Deutsch „Betrug“. Stellen Sie sich vor, Sie erhalten eine E-Mail, in der Ihnen mitgeteilt wird, dass Ihnen ein hoher Geldbetrag aus einem Gewinn oder einer Erbschaft zusteht. In der E-Mail wird jedoch behauptet, dass vor der Auszahlung des Geldbetrags eine Verwaltungsgebühr zu entrichten sei. Der Angreifer hat es in diesem Moment nur auf diese Verwaltungsgebühr abgesehen. Kurzum: Das Opfer wird in einer direkten Kommunikation dazu überredet, dem Täter unter Vortäuschung falscher Tatsachen Geld zu überweisen.

Bei der Generierung von Malware dringen Angreifer mit Hilfe von schädlicher Software oder Programmcodes in Computersysteme ein und richten dort Schaden an. Auch hier zielen Cyberangriffe darauf ab, persönliche Daten abzugreifen und einzelne Personen oder ganze Unternehmen automatisiert zu erpressen. So waren laut einer Bitkom-Studie im Jahr 2023 mehr als 70 Prozent der über 1.000 befragten Unternehmen aus verschiedenen Branchen vom Diebstahl sensibler Daten betroffen. 61 Prozent beklagten das Ausspähen der digitalen Kommunikation sowie die digitale Sabotage von Systemen oder Betriebsabläufen.

Und genau an dieser Stelle versetzt ChatGPT Experten in Alarmbereitschaft, denn der Chatbot kann dazu genutzt werden, Angriffstechniken zu verbessern oder gar neu zu entwickeln. Und längst haben auch Hacker das Potenzial Künstlicher Intelligenz erkannt.

Wie wird ChatGPT zum Hacken missbraucht?

Um zu verdeutlichen, wie leicht es ist, die Regulierungen des Chatbots zu umgehen, soll ein einfaches Beispiel herhalten. Im ersten Prompt wird ChatGPT konkret nach einer Phishing-Kampagne gefragt. Die Antwort ist sehr eindeutig:

Phishing-Mail

Obwohl OpenAI versucht, den Missbrauch der Fähigkeiten seines Chatbots zu verhindern, indem es bestimmte Inhalte durch Barrieren und Einschränkungen relativ streng reguliert und die Erstellung potenziell schädlicher oder illegaler Inhalte ausdrücklich verbietet, können diese Regulierungen durch entsprechendes Prompting leicht umgangen werden, wie die folgenden Ausführungen zeigen:

Graphik zeigt eine Anfrage zu einer E-Mail-Kampagne Graphik zeigt eine mit ChatGPT verfasste E-Mail-Kampagne Graphik zeigt einen von ChatGPT verfassten Sicherheitshinweis

Nach dem Verfassen der E-Mail weist der Chatbot noch einmal auf die Gewährleistung von Datenschutz und Privatsphäre hin, ansonsten gibt es jedoch keine weiteren Einschränkungen. Gerade die sprachliche Qualität der KI verschafft Angreifern Vorteile bei Spam- oder Phishing-Mails. Denn die Texte von ChatGPT sind grammatikalisch korrekt – in mehr als 50 Sprachen. Zudem baut ChatGPT geschickt Techniken wie Schmeichelei, Zeitdruck oder Autorität in die E-Mails ein, um die Empfänger zum Handeln zu bewegen. Im Gegensatz dazu enthielten Phishing-E-Mails, die oft aus dem Ausland verschickt wurden, bisher erhebliche grammatikalische Fehler oder falsche Formulierungen, die eher Misstrauen erweckten. Die Sprachfähigkeiten von ChatGPT ermöglichen es nun, diese Verteidigungslinie, die auf der Beobachtung der Benutzer basiert, leicht zu überwinden.

Es wird deutlich, dass KI den Aufwand minimiert und bestehende Angriffstechniken verbessert – sei es beim Verfassen von Phishing-Mails oder bei der Erstellung von Schadcode. Hier stellt sich nun die Frage: Welche Möglichkeiten gibt es, sich gegen Betrugsversuche zu wehren?

Der beste Schutz bleibt Wachsamkeit

Die gute Nachricht: Auch die Sicherheitsbranche kann den Chatbot zu ihrem Vorteil nutzen, um beispielsweise Schwachstellen in Software aufzudecken. Auch bei der Softwareentwicklung könnte ChatGPT eingesetzt werden, um die Qualität des Codes zu verbessern und so potenzielle Angriffsmöglichkeiten auf die Software zu reduzieren.

Und welche Möglichkeiten hat der Endverbraucher? Hier gilt nach wie vor das oberste Gebot: Seien Sie wachsam! Diese Tipps helfen, betrügerische E-Mails zu erkennen:

  • Gefälschte Absenderadresse: Ist die E-Mail-Adresse des Absenders z. B. durch einen Vergleich zu verifizieren? Kann der Absender den Versand der Mail persönlich/telefonisch bestätigen?
  • Abfrage vertraulicher Daten: Fordert die E-Mail zur Eingabe persönlicher Daten oder Informationen auf? Werden Passwörter o. Ä. abgefragt?
  • Vorgetäuschter dringender Handlungsbedarf: Signalisiert die Mail einen Handlungsbedarf oder Dringlichkeit?
  • Links zu gefälschten Webseiten: Enthält die E-Mail Verlinkungen, die auf andere Webseiten verweisen? Welche Ziel-URL wird bei einem Mouseover angezeigt?
  • Sprachliche Ungenauigkeiten: Ist die Anrede unpersönlich formuliert? Enthält der Text Rechtschreib- oder Zeichenfehler?

Angesichts der wachsenden Bedrohungen und der rasanten Entwicklung auf dem Gebiet der generativen KI ist in Zukunft jedoch mehr als nur Wachsamkeit erforderlich.

Wie sieht die Zukunft der Cybersecurity aus?

Laut einer von BlackBerry im Januar 2023 durchgeführten Umfrage unter 1.500 IT- und Cybersicherheits-Entscheidern in Nordamerika, Australien und dem Vereinigten Königreich werden neue KI-gestützte Cyberbedrohungen in Zukunft eine Cyberabwehr erfordern, die auf KI-gestützten Tools basiert. Die Umfrageergebnisse zeigen, dass die Mehrheit (82 Prozent) in den nächsten zwei Jahren in KI-gestützte Cybersicherheit investieren wird. Dies unterstreicht, dass es auch für Unternehmen immer wichtiger wird, ihre IT-Sicherheit zu erhöhen, denn der Trend zu Angriffen im digitalen Raum wird anhalten. Gleiches gilt für die wachsenden Möglichkeiten und Herausforderungen von KI-Anwendungen. Digitalisierung und IT-Sicherheit müssen daher künftig Hand in Hand gehen.

Bild: Sanket Mishra (Pexels, Pexels Lizenz)

nach oben
FAQ