Zum Hauptinhalt springen 
Bild: Wanlop / stock.adobe.com
Elektrotechnik | Inf.- und Kommunikationstechnik | Internet/Multimedia

Künstliche Intelligenz

KI-Freunde können mit der Privatsphäre spielen

01.05.2024

Es ist inzwischen Realität, dass Menschen ihre mentale Gesundheit in die Hände von KI-Tools legen. Eine von NordVPN durchgeführte Umfrage ergab, dass 52 % der Deutschen Technologien zur Unterstützung ihrer mentalen Gesundheit nutzen. Während Menschen früher eher Yoga-Apps und Anwendungen zum Tracken von Gewohnheiten bevorzugten, um ihre mentale Gesundheit zu stärken, greifen sie zunehmend auch auf KI-Therapeuten und -Freunde zurück.

Seiten

„In letzter Zeit wurde der Markt mit KI-basierten Tools zur Förderung der Gesundheit von Nutzern regelrecht überschwemmt. Die Corona-Pandemie hat die Arbeitsbelastung der Therapeuten drastisch erhöht, und es ist eine Herausforderung, die aktuelle Nachfrage zu bewältigen. Einige KI-Therapeuten werden von Spezialisten getestet und empfohlen, aber die meisten davon sind eher mit KI-Freunden zu vergleichen, die in Wahrheit nichts anderes als Marketing-Bots sind. Viele dieser KI-Tools sind nicht geeignet, um die Bewältigung von psychischen Problemen effektiv zu unterstützen –  stattdessen besteht die Gefahr, dass sie abhängig machen und Nutzern persönliche Daten entlocken“, sagt Adrianus Warmenhoven, Berater für Cybersicherheit bei NordVPN.

Fachleute aus dem Bereich der psychischen Gesundheit stellen fest, dass klinisch validierte KI-Technologien eingesetzt werden können, um beispielsweise das Risiko eines Burnouts zu verringern. Allerdings sind sie bei der Verwendung von KI zur Unterstützung von Menschen mit schwerwiegenden psychischen Problemen zurückhaltender.

Dies liegt daran, dass generative KI auf bestehenden Datensätzen beruht und subtile Details über die Persönlichkeit oder den Zustand eines Patienten leicht übersehen können. Außerdem sind Körpersprache, Tonfall, Mimik und andere nonverbale Kommunikation entscheidend, um zu erkennen, ob sich ein Patient in einem kritischen Zustand befindet und dringende Maßnahmen eingeleitet werden müssen, um diesen Zustand zu stabilisieren.

Darüber hinaus warnen Experten davor, dass KI-Chatbots in den meisten Fällen keine Verbindung zwischen gefährdeten Nutzern und psychotherapeutischen Fachkräften herstellen, selbst wenn diese Suizidgedanken äußern. Im Gegenteil, es gibt Beispiele, in denen Bots Menschen dabei helfen, sich selbst oder anderen zu schaden.

Sich besser bei der Nutzung von Chatbots schützen

Adrianus Warmenhoven gibt folgende Hinweise zur Nutzung von KI-Tools im Bereich der Gesundheitsförderung:


Seiten