Skip to main content 
Bild: Chaosamran_Studio / stock.adobe.com
Maschinen- und Anlagentechnik | Steuerungstechnik | Fortbildung | Personen und Firmen

Künstliche Intelligenz

KI-Kompetenzen aufbauen – aber wie?

10.06.2025

Seit dem 1. August 2024 ist der EU AI Act in Kraft und bringt neben technischen Anforderungen auch eine neue Pflicht mit sich: Unternehmen müssen nachweisen, dass Mitarbeitende, die mit KI-Systemen arbeiten, über entsprechende Fachkompetenz verfügen.

Seiten

Seit Februar 2025 gilt diese Regel verpflichtend. Das bedeutet, Arbeitgeber sind zu einer aktiven Schulungspflicht ihrer Mitarbeiter, die weit über IT-Teams hinausreicht, angehalten. Diese neuen Anforderungen treffen auf eine Belegschaft, der das nötige Know-how fehlt. So nennen 35 % der Unternehmen, die KI nutzen, fehlende Kompetenzen der Mitarbeitenden als eines der größten Hindernisse – gleichauf mit Risikomanagement und Datenqualität. Doch das Problem ist lösbar, mit einer klaren Strategie und geeigneten Werkzeugen. Die Datenexperten von Knime haben fünf Handlungsempfehlungen formuliert, wie Unternehmen richtig in die KI-Kompetenzen ihrer Mitarbeiter investieren: 

1. KI-Nutzung kompetent gestalten 

Viele Unternehmen schwanken heute zwischen Freigabe und einem Verbot von KI-Tools wie ChatGPT, DeepSeek, Meta AI, und Gemini. Doch ein generelles Nutzungsverbot ist keine Lösung, ganz im Gegenteil. Es droht das Risiko einer sogenannten Schatten-KI, also dass Mitarbeitende KI-Tools heimlich verwenden, ohne Kontrolle oder Sicherheitsvorkehrungen. Das birgt massive Risiken für Datenschutz, Unternehmenssicherheit und Compliance. Für Unternehmen ist es daher ratsam, stattdessen klare Richtlinien und eine offene Lernkultur für KI einzuführen. Mitarbeitende müssen verstehen, wie KI funktioniert, welche Daten sie nutzen dürfen und welche Verantwortung sie tragen, gerade auch im Hinblick auf KI-Halluzinationen. Aufgrund möglicher negativer Auswirkungen sollte den Mitarbeitenden klar gemacht werden, dass KI-Ergebnisse in sensiblen Bereichen besonders streng überprüft werden müssen. 

2. Datenqualität und menschliche Kontrolle im Fokus

Der verantwortungsvolle Einsatz von künstlicher Intelligenz beginnt nicht bei der Technologie selbst, sondern bei den Grundlagen, insbesondere bei der Qualität der Daten. Nur wer vollständige, konsistente und aktuelle Daten nutzt, kann KI-Modelle entwickeln, die verlässlich und vertrauenswürdig sind. Gleichzeitig ist das beste Modell nur so nützlich wie die Fragen, die Menschen ihm stellen. Um KI wirksam nutzen zu können, brauchen Mitarbeitende ein Verständnis dafür, wie sie präzise und kontextreiche Fragen formulieren – denn je detaillierter die Eingabe, desto besser die Antwort. 

Doch selbst eine hervorragende Datenbasis und gut geschulte Mitarbeitende reichen nicht aus, wenn es um sensible Entscheidungen geht. Hier muss der Mensch als Kontrollinstanz eingebunden bleiben für Akzeptanz und letztlich auch, um Verantwortung zu übernehmen. Um Entscheidungswege nachvollziehbar zu machen und KI-Systeme aus ihrer Black Box herauszuholen, bieten sich benutzerfreundliche Plattformen mit grafischen Oberflächen an. Sie helfen dabei, KI-basierte Prozesse verständlich zu gestalten und Vertrauen in die Technologie zu stärken. 

3. Rollenbilder auch bei Datenberufen weiterentwickeln

Gerade auch mit dem rasanten Aufstieg autonomer KI-Agenten entsteht nicht nur eine technologische Neuerung, sondern ein tiefgreifender Wandel in der betrieblichen Organisation. Deutschland liegt laut aktueller Studie weltweit an zweiter Stelle beim Interesse an dieser Technologie. Doch anders als bei den oberflächlichen Fähigkeiten von GenAI, sieht es bei agentenbasierten KI-Systemen aus, die nicht nur reagieren, sondern aktiv handeln. Solche KI-Agenten können Entscheidungen treffen, Tools bedienen, in verschiedenen Systemen gleichzeitig arbeiten und Aufgaben automatisieren, die früher manuell erledigt wurden. Sie übernehmen nicht nur Kommunikation, sondern auch konkrete Ausführung. Für Geschäftsführungen bedeutet das: Bestehende Rollenbilder reichen nicht mehr aus. Gefragt ist nicht mehr nur Modelltraining, sondern Systemverständnis, Architekturwissen und Tool-Orchestrierung. Dadurch entstehen neue Jobprofile, wie etwa der AI Agent Orchestrator, der für die Auswahl, Steuerung und ethische Absicherung autonomer Systeme verantwortlich ist, sowie AI Product Owner, die fachlich getriebene Agentenanwendungen mitgestalten. Und auch Data Citizens gewinnen an Bedeutung, die in Fachabteilungen datengestützte Entscheidungen mit voranbringen. Statt darauf zu warten, dass sich neue Tätigkeiten informell herausbilden, sollten Unternehmen gezielt Rollenprofile entwickeln und entsprechende Schulungen dazu anbieten.  


Seiten

Bilder

Michael Berthold - CEO Knime, Bild: Knime
Visual Workflow, Bild: Knime
Rosaria Silipo - VP Data Science Evanglism bei Knime, Bild: Knime
Knime Spreasheet Workflow, Bild: Knime