Nicht nur ihr: Auch Cyberkriminelle nutzen ChatGPT, um sich das Leben leichter zu machen

Alles rund um Hardware
Antworten
Benutzeravatar
ww_michael
Verified
Site Admin
Beiträge: 2673
Registered for: 3 years 1 month
3
Wohnort: Winnen
Hat sich bedankt: 89 Mal
Danksagung erhalten: 1875 Mal
Geschlecht:
Alter: 59
Kontaktdaten:
Germany

Nicht nur ihr: Auch Cyberkriminelle nutzen ChatGPT, um sich das Leben leichter zu machen

Beitrag: # 2803Beitrag ww_michael »

In der Cybersicherheitsbranche gibt es bereits Beweise für die Nutzung von ChatGPT durch Kriminelle.

ChatGPT kann schnell gezielte Phishing-E-Mails oder bösartigen Code für Malware-Angriffe erzeugen.

KI-Unternehmen könnten für Chatbots, die Kriminelle unterstützen, haftbar gemacht werden.

Ob es sich um das Schreiben von Aufsätzen oder die Analyse von Daten handelt: ChatGPT kann die Arbeit einer Person erleichtern. Das gilt auch für die Arbeit Cyber-Krimineller. Sergey Shykevich, ein leitender ChatGPT-Forscher beim Cybersicherheitsunternehmen Checkpoint Security, hat bereits beobachtet, wie Cyberkriminelle die Leistung der KI nutzen, um Code zu erstellen, der für einen Ransomware-Angriff verwendet werden kann.

Shykevichs Team begann im Dezember 2021 mit der Untersuchung des Potenzials der KI für Cyberkriminalität. Mithilfe des umfangreichen Sprachmodells der KI erstellten sie Phishing-E-Mails und schädlichen Code. Als klar wurde, dass ChatGPT für illegale Zwecke genutzt werden könnte, sagte Shykevich zu Business Insider, wollte das Team herausfinden, ob ihre Erkenntnisse „theoretisch“ waren oder ob sie „die bösen Jungs in freier Wildbahn“ finden konnten.

ChatGPT wird auch von Cyberkriminellen genutzt

Da es schwer zu sagen ist, ob eine schädliche E-Mail, die im Posteingang einer Person landet, mit ChatGPT geschrieben wurde, wandte sich sein Team an das Dark Web, um zu sehen, wie die Anwendung genutzt wird.

Am 21. Dezember fanden sie ihr erstes Beweisstück: Cyberkriminelle nutzten den Chatbot, um ein Python-Skript zu erstellen, das für einen Malware-Angriff verwendet werden kann. Der Code wies einige Fehler auf, sagte Shykevich, aber der Großteil war korrekt. „Interessant ist, dass diese Leute, die ihn gepostet haben, noch nie etwas entwickelt haben“, sagte er.

Shykevich sagte, dass ChatGPT und Codex, ein OpenAI-Service, der Code für Entwickler schreiben kann, „es weniger erfahrenen Leuten ermöglichen wird, angebliche Programmierer zu sein.“ Der Missbrauch von ChatGPT beunruhigt Cybersicherheitsexperten, die das Potenzial von Chatbots für Phishing-, Malware- und Hackerangriffe sehen.

Eine Möglichkeit für unkomplizierte Phishing-Angriffe

Justin Fier, Direktor für Cyber Intelligence & Analytics bei Darktrace, einem Unternehmen für Cybersicherheit, sagte zu Business Insider, dass die Einstiegshürde für Phishing-Angriffe bereits niedrig sei. ChatGPT könnte es für Menschen noch unkomplizierter machen, effizient Dutzende von gezielten Betrugs-E-Mails zu erstellen – solange sie gute Eingabeaufforderungen erstellen.

„Beim Phishing dreht sich alles um das Volumen – stellen Sie sich 10.000 E-Mails vor, die sehr gezielt sind. Anstelle von 100 positiven Klicks habe ich jetzt drei oder 4.000“, sagte Fier. Er bezog sich dabei auf eine hypothetische Anzahl von Personen, die auf eine Phishing-E-Mail klicken könnten, mit der Benutzer dazu gebracht werden sollen, persönliche Daten wie Bankpasswörter preiszugeben. „Das ist eine große Zahl, und es geht nur um dieses Ziel“.

Ein „Science-Fiction-Film“

Anfang Februar veröffentlichte das Cybersicherheitsunternehmen Blackberry eine Umfrage unter 1.500 IT-Experten, von denen 74 Prozent angaben, sie seien besorgt darüber, dass ChatGPT zur Cyberkriminalität beiträgt. Die Umfrage ergab auch, dass 71 Prozent glaubten, dass ChatGPT bereits von Nationalstaaten genutzt werden könnte, um andere Länder durch Hacking- und Phishing-Versuche anzugreifen.

„Es ist gut dokumentiert, dass Menschen mit böswilligen Absichten das Thema erproben, aber im Laufe dieses Jahres erwarten wir, dass Hacker viel besser in den Griff bekommen, wie sie ChatGPT erfolgreich für schändliche Zwecke nutzen können“, schrieb Shishir Singh, Chief Technology Officer of Cybersecurity bei BlackBerry, in einer Pressemitteilung.

Singh sagte zu Business Insider, dass diese Befürchtungen auf die rasanten Fortschritte der KI im letzten Jahr zurückzuführen sind. Experten sagten, dass die Fortschritte bei großen Sprachmodellen, die nun besser in der Lage sind, menschliche Sprache zu imitieren, schneller als erwartet vorangeschritten sind. Singh beschrieb die rasanten Innovationen als etwas aus einem „Science-Fiction-Film“. Er sagt: „Was wir in den letzten 9 bis 10 Monaten gesehen haben, haben wir nur in Hollywood gesehen“.
Bild
Antworten