Skip to main content 
Bild: REDPIXEL.PL/Shutterstock.com
Sicherheitstechnik | Inf.- und Kommunikationstechnik | Internet/Multimedia | Betriebsführung-weitere | Innungen und Verbände

Cybersecurity

IT-Expertin warnt: Dramatischer Anstieg bei Cyberangriffen

10.11.2023

ChatGPT ermöglicht bereits das Verfassen von Büchern und Artikeln sowie die Beantwortung alltäglicher Fragen. Doch wie steht es um die Sicherheit im Cyberspace? Im Interview mit dem VDI Verein Deutscher Ingenieure e. V. warnt Prof. Dr. Haya Shulman von der Goethe-Universität Frankfurt am Main davor, ChatGPT als Alternative zu Suchmaschinen einzusetzen.

 

Seiten

Welche potentiellen Risiken und Gefahren für die Cybersecurity ergeben sich durch den Einsatz von Chat GPT?

Shulman: ChatGPT, Google Bard und Co. bergen Chancen und Risken – wie jede neue Technologie – und man muss beide Seiten betrachten. Bei den Risiken dürften aus Sicht der Cybersicherheit in der nahen Zukunft zwei Effekte dominieren: Die Vertrauenswürdigkeit und Authentizität von Information wird man in Zukunft nur noch technisch sicherstellen können, wenn überhaupt. „Draufschauen“ wird nicht mehr genügen. Gesetzliche Kennzeichnungspflichten KI-generierter Inhalte sind nützlich, um Missbrauch z. B. durch Unternehmen einzudämmen, werden am Missbrauch durch Kriminelle aber nichts ändern. Der andere Effekt ist das enorme Potential zur Automatisierung von Cyberangriffen. Wir sollten deshalb davon ausgehen, dass die Anzahl und die Qualität der Cyberangriffe in den nächsten Jahren noch einmal dramatisch ansteigen wird.

Wie können Unternehmen sicherstellen, dass die von Chat GPT generierten Texte nicht versehentlich sensible Informationen preisgeben oder gegen Datenschutzgesetze verstoßen?

Shulman: Wer vertrauliche Daten an ChatGPT weitergibt, hat keinerlei Kontrolle darüber, was mit diesen Daten passiert. Das einzige, was man Unternehmen deshalb raten kann, ist, den Mitarbeitenden diese Risiken klar und deutlich vor Augen zu führen und den Einsatz von ChatGPT für alles, was vertrauliche oder datenschutzrelevante Themen berührt, zu untersagen. Damit dieses Verbot nicht zum Innovationskiller wird oder die Mitarbeiter es schlicht ignorieren, sollten Unternehmen aber gleichzeitig Alternativen anbieten, die mehr Kontrollmöglichkeiten bieten und vielleicht auch besser auf die Bedürfnisse des Unternehmens zugeschnitten sind.

Kann ich als Mensch, wenn ich einen Fehler bzw. eine Fehleinschätzung feststelle (bspw. Benachteiligung einer Gruppe o. ä.) die Fehlerquelle erkennen? Bzw. kann das System mir bei so großen Datenmengen noch plausibel erklären, warum und wo der Fehler auftritt?

Shulman: ChatGPT und ähnliche Modelle geben tatsächlich oft sehr gut und selbstsicher formulierte, aber trotzdem falsche Antworten. Der Grund dafür liegt teilweise in Fehlern und Vorurteilen in den Trainingsdaten, teilweise aber auch daran, dass sich eine Antwort aus den Trainingsdaten überhaupt nicht gesichert ableiten lässt und das Modell dies nicht rechtzeitig feststellt. Man sollte sich deshalb auf keinen Fall ungeprüft auf Antworten solcher Modelle verlassen. Wirklich nützlich sind diese Werkzeuge zumindest Stand heute nur dann, wenn der menschliche Benutzer die Antworten selbst aufgrund des eigenen Wissens einschätzen kann. Auf keinen Fall sollte man ChatGPT als Ersatz für eine Suchmaschine verwenden oder es als eine Art Universalgelehrten betrachten. Dieses Problem ist natürlich gut bekannt und es gibt auch Ansätze, wie man die Nachvollziehbarkeit von Antworten verbessert. Noch sind wir aber nicht so weit.


Seiten

Bilder

Prof. Dr. Haya Shulman, Expertin für Netzwerk- und Computersicherheit, Bild: Farideh Diehl