Mehr als die Hälfte der deutschen Unternehmen setzt KI bereits ein. Aber nur knapp ein Drittel vertraut den Ergebnissen ausreichend, um Entscheidungen darauf zu stützen. Das zeigt der Stanford AI Index 2026 — das umfassendste Daten-Dokument zur globalen KI-Entwicklung.
Klingt nach einem technischen Problem. Ist es aber nicht.
Es ist ein Kompetenzproblem. Und ab August 2026 wird daraus ein Haftungsproblem.
Stanford AI Index 2026 — April 2026
53% der Unternehmen weltweit setzen KI bereits aktiv ein. Nur 31% vertrauen den KI-Ergebnissen ausreichend, um Entscheidungen darauf zu stützen. Das Vertrauen wächst deutlich langsamer als die Adoption.
Das eigentliche Problem hinter der Zahl
Wie entsteht so eine Lücke? Ein Mitarbeiter nutzt ChatGPT für Angebote. Ein anderer lässt KI Berichte zusammenfassen. Wieder ein anderer fragt die KI nach Marktdaten.
Niemand hat erklärt, wann KI zuverlässig ist — und wann nicht. Niemand hat festgelegt, welche Ergebnisse geprüft werden müssen, bevor sie rausgehen. Niemand weiß genau, wie die KI zu ihrer Antwort gekommen ist.
Das Unternehmen nutzt KI. Aber es versteht sie nicht.
Solange das folgenlos bleibt, ist es ein Effizienzproblem. Ab dem 2. August 2026 ist es ein Rechtsproblem.
Was der EU AI Act ab August konkret bedeutet
Der EU AI Act ist seit 2024 in Kraft — aber die schärfsten Regeln greifen gestaffelt. Ab dem 2. August 2026 gelten Transparenzpflichten für KI-Systeme, die mit Menschen interagieren: Chatbots, KI-gestützte Kommunikation, automatisierte Entscheidungsunterstützung.
Für Hochrisiko-Anwendungen — KI in der Personalauswahl, Kreditvergabe, Kundenbewertung — gilt: Jede KI-gestützte Entscheidung muss dokumentiert und nachvollziehbar sein.
Neu ab August 2026: Persönliche Haftung
Nach dem IAPP Global Summit 2026 haben Aufsichtsbehörden klar signalisiert: Vorstände und Geschäftsführer können persönlich haftbar gemacht werden, wenn KI-Entscheidungen in ihrem Unternehmen nicht lückenlos dokumentiert sind. "Wir wussten nicht, wie die KI entschieden hat" ist keine akzeptable Antwort mehr.
Das betrifft mehr Unternehmen als die meisten denken. Wer KI-Tools in der Personalauswahl nutzt — auch nur zur Vorauswahl von Bewerbungen — fällt darunter. Wer KI für die Kundenkommunikation einsetzt, fällt darunter. Wer KI-generierte Inhalte ohne Kennzeichnung veröffentlicht, fällt darunter.
Warum fehlende Kompetenz jetzt konkret gefährlich wird
Die Stanford-Zahl — 53% Nutzung, 31% Vertrauen — ist kein abstraktes Problem. Sie beschreibt den Ist-Zustand in vielen Mittelstandsunternehmen:
KI wird genutzt. Aber niemand im Team weiß genau, wann sie verlässlich ist, wann sie halluziniert, wann man das Ergebnis prüfen muss. Und niemand dokumentiert, welche Entscheidungen KI-gestützt getroffen wurden.
Das war bisher lästig. Ab August ist es ein Compliance-Risiko.
Ohne KI-Kompetenz im Team
Mit KI-Kompetenz im Team
Was das für dich bedeutet — konkret
Wenn du KI in deinem Unternehmen einsetzt — auch nur einzelne Mitarbeiter mit ChatGPT — sind drei Fragen relevant:
1. Wissen deine Mitarbeiter, wann sie KI-Ergebnissen vertrauen können? Nicht jede KI-Antwort ist verlässlich. Wer das nicht unterscheiden kann, macht Fehler — und das Unternehmen haftet dafür.
2. Gibt es einen Prozess, der KI-gestützte Entscheidungen dokumentiert? Nicht für jeden Entwurfstext. Aber für alles, was Kunden, Mitarbeiter oder Behörden betrifft: ja.
3. Weiß irgendjemand in deinem Unternehmen, was der EU AI Act von euch verlangt? Die meisten Mittelständler kennen die Antwort nicht. Das ändert sich ab August — spätestens wenn die erste Behörde nachfragt.
Herausfinden, wo dein Team steht
Zur KompetenzanalyseWas sinnvoll ist — und was nicht
Die Antwort ist nicht: KI sofort abschalten. Das wäre ein Wettbewerbsnachteil.
Die Antwort ist auch nicht: sofort ein Compliance-Projekt starten. Das ist für die meisten Mittelständler überdimensioniert.
Die Antwort ist: ein oder zwei Mitarbeiter gezielt qualifizieren. Nicht allgemein in "KI", sondern konkret in den Anwendungen, die ihr bereits nutzt oder nutzen wollt. Damit sie wissen, wann KI zuverlässig ist, wie man Ergebnisse prüft — und wie man das dokumentiert, wenn es drauf ankommt.
Das schließt die Vertrauenslücke aus dem Stanford-Report. Und es macht aus einem Haftungsrisiko eine nachweisbare Kompetenz.
4 Monate
bis EU AI Act-Transparenzpflichten greifen
Inkrafttreten: 2. August 2026
Der erste Schritt ist ein 15-minütiges Gespräch. Wir schauen gemeinsam, wie dein Team KI gerade nutzt — und was konkret fehlt, damit es sicher, verlässlich und regelkonform läuft.
Gut zu wissen
KI-Qualifizierung ist über das Qualifizierungschancengesetz förderfähig — bis zu 100% der Weiterbildungskosten für KMU. Kein Grund, das Thema aufzuschieben.


