Das sagt die Security-Branche

ChatGPT: Mehr Fluch als Segen?

< zurück

Seite: 2/2

Anbieter zum Thema

Vielseitiger Nutzen, vielseitiger Missbrauch

ChatGPT wäre also so schön praktisch, wenn Cyberkriminelle nicht auch hier nach Wegen suchen würden, Unwesen zu treiben. Im Rahmen des Check Point Research (CPR) deckte das Forschungsteam erste Fälle auf, in welchen Kriminelle OpenAI zur Entwicklung bösartiger Tools nutzten. Zwar sei der Entwicklungsstand noch nicht so hoch, raffinierte Bedrohungsakteure würden aber schnell darauf kommen, wie sie KI-basierte Tools zum Schaden anderer einsetzen.

Traurig aber wahr: KI hat den letzten Nagel in den Sarg des Endbenutzer-Sicherheitsbewusstseins geschlagen. Wir benötigen zunehmend intelligente Maschinen, um zu erkennen, wenn andere Maschinen versuchen, uns zu täuschen.

Chester Wisniewski, Sophos

Betrug mit allen Sinnen

„Natürlich lässt sich eine solche Technologie auch missbrauchen – etwa durch Cyberkriminelle, die mit Hilfe eines Chatbots Betrugsverbrechen begehen. Wo heute ganze Callcenter mit menschlichen Angestellten dazu eingesetzt werden, steht vielleicht eines Tages ein Computer oder ein Rechenzentrum“, erklärt Tim Berghoff, Security Evangelist bei G Data.

Und nicht nur das. „In Verbindung mit einer anderen Technologie aus dem Hause OpenAI mit dem Namen Vall-E ergeben sich hier geradezu erschreckende Möglichkeiten. Vall-E ist in der Lage, Stimmen täuschend echt zu imitieren, und das mit relativ wenig Ausgangsmaterial“, führt er weiter beispielhaft aus. „Im schlimmsten Fall könnte man nicht einmal mehr der Mail oder dem Anruf von Kollegen oder der Chefin trauen, weil die Stimme so täuschen echt gefälscht ist, dass es über das Telefon nicht auffällt.“

ChatGPT ist auch in der Lage, Programmcode zu schreiben. Eine einfache Anfrage genügt, und schon spuckt der Bot die gewünschten Codezeilen aus. Der generierte Code ist zwar funktional, aber die Sicherheit darf bezweifelt werden. Von Secure Coding hat ChatGPT nämlich keine Ahnung. Quellcode, der von einer KI generiert wurde, kann also Sicherheitslücken enthalten. Es hat sogar schon Versuche gegeben, ChatGPT zur Programmierung von Ransomware zu benutzen.

Tim Berghoff, G Data

ChatGPT könnte sich in jegliche Tools drängen

Es steht fest, dass die Nutzung von ChatGPT trotz aller Sicherheitsbemühungen neue Herausforderungen mit sich bringt – das bestätigt auch Sophos. Folglich brauche es immer noch intelligente Maschinen, um zu erkennen, wenn andere Maschinen versuchen, die Nutzer zu täuschen.

Chester Wisniewski, Cybersecurity-Experte bei Sophos, sieht die Gefahr noch an anderer Stelle: „Eines der größten Risiken besteht darin, dass Angreifer diese Plattformen nutzen, um die Qualität ihrer Phishing-Köder erheblich zu verbessern. Damit sind Phishing-Angriffe selbst für aufmerksame Nutzer immer schwieriger zu identifizieren.“

ChatGPT sei Berichten zufolge bereits von gering qualifizierten Cyberkriminellen verwendet worden, um grundlegende Malware zu entwickeln. „Darüber hinaus kann es genutzt werden, um Phishing-Skripte zu entwickeln“, erklärt auch Satnam Narang, Senior Research Engineer bei Tenable.

Letztendlich würden die immer intelligenteren Chatbots, den Experten nach, unter Umständen ein kostenloses Upgrade für alle Arten von Social-Engineering-Angriffen liefern. Programme wie ChatGPT könnten dazu genutzt werden, kriminell orientierte, sehr realistische und interaktive Gespräche via E-Mail zu führen oder Chat-Angriffe über Facebook Messenger, WhatsApp oder andere Chat-Apps zu starten. „Heute besteht die größte Gefahr für die englischsprachige Zielgruppe. Es ist aber wahrscheinlich nur eine Frage der Zeit, bis neue Versionen verfügbar sind, um glaubwürdige Texte in allen häufig gesprochenen Sprachen der Welt zu erstellen“, ergänzt Wisniewski.

Diese Entwicklung bilde eine Zäsur für bislang bestehende Standards im Bereich Mitarbeiterschulung und IT-Sicherheit. Die Zeiten, in denen sich Unternehmen darauf verlassen konnten, dass die Mitarbeiter eine aktive Rolle bei der Verteidigung gegen Cyberattacken spielen, seien den Experten nach vorbei. Rein auf Grammatik und Rechtschreibung oder merkwürdige Formulierungen zu achten, reiche nicht mehr aus.

(ID:49024053)

Jetzt Newsletter abonnieren

Wöchentlich die wichtigsten Infos zur Digitalisierung in der Verwaltung

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung