Zum Inhalt springen

    53% nutzen KI — aber nur 31% verstehen sie. Ab August haftest du dafür.

    April 2026 7 Min Lesezeit

    Mehr als die Hälfte der deutschen Unternehmen setzt KI bereits ein. Aber nur knapp ein Drittel vertraut den Ergebnissen ausreichend, um Entscheidungen darauf zu stützen. Das zeigt der Stanford AI Index 2026 — das umfassendste Daten-Dokument zur globalen KI-Entwicklung.

    Klingt nach einem technischen Problem. Ist es aber nicht.

    Es ist ein Kompetenzproblem. Und ab August 2026 wird daraus ein Haftungsproblem.

    Stanford AI Index 2026 — April 2026

    53% der Unternehmen weltweit setzen KI bereits aktiv ein. Nur 31% vertrauen den KI-Ergebnissen ausreichend, um Entscheidungen darauf zu stützen. Das Vertrauen wächst deutlich langsamer als die Adoption.

    Das eigentliche Problem hinter der Zahl

    Wie entsteht so eine Lücke? Ein Mitarbeiter nutzt ChatGPT für Angebote. Ein anderer lässt KI Berichte zusammenfassen. Wieder ein anderer fragt die KI nach Marktdaten.

    Niemand hat erklärt, wann KI zuverlässig ist — und wann nicht. Niemand hat festgelegt, welche Ergebnisse geprüft werden müssen, bevor sie rausgehen. Niemand weiß genau, wie die KI zu ihrer Antwort gekommen ist.

    Das Unternehmen nutzt KI. Aber es versteht sie nicht.

    Solange das folgenlos bleibt, ist es ein Effizienzproblem. Ab dem 2. August 2026 ist es ein Rechtsproblem.

    Was der EU AI Act ab August konkret bedeutet

    Der EU AI Act ist seit 2024 in Kraft — aber die schärfsten Regeln greifen gestaffelt. Ab dem 2. August 2026 gelten Transparenzpflichten für KI-Systeme, die mit Menschen interagieren: Chatbots, KI-gestützte Kommunikation, automatisierte Entscheidungsunterstützung.

    Für Hochrisiko-Anwendungen — KI in der Personalauswahl, Kreditvergabe, Kundenbewertung — gilt: Jede KI-gestützte Entscheidung muss dokumentiert und nachvollziehbar sein.

    Neu ab August 2026: Persönliche Haftung

    Nach dem IAPP Global Summit 2026 haben Aufsichtsbehörden klar signalisiert: Vorstände und Geschäftsführer können persönlich haftbar gemacht werden, wenn KI-Entscheidungen in ihrem Unternehmen nicht lückenlos dokumentiert sind. "Wir wussten nicht, wie die KI entschieden hat" ist keine akzeptable Antwort mehr.

    Das betrifft mehr Unternehmen als die meisten denken. Wer KI-Tools in der Personalauswahl nutzt — auch nur zur Vorauswahl von Bewerbungen — fällt darunter. Wer KI für die Kundenkommunikation einsetzt, fällt darunter. Wer KI-generierte Inhalte ohne Kennzeichnung veröffentlicht, fällt darunter.

    Warum fehlende Kompetenz jetzt konkret gefährlich wird

    Die Stanford-Zahl — 53% Nutzung, 31% Vertrauen — ist kein abstraktes Problem. Sie beschreibt den Ist-Zustand in vielen Mittelstandsunternehmen:

    KI wird genutzt. Aber niemand im Team weiß genau, wann sie verlässlich ist, wann sie halluziniert, wann man das Ergebnis prüfen muss. Und niemand dokumentiert, welche Entscheidungen KI-gestützt getroffen wurden.

    Das war bisher lästig. Ab August ist es ein Compliance-Risiko.

    Ohne KI-Kompetenz im Team

    Mit KI-Kompetenz im Team

    KI wird genutzt, aber nicht verstanden
    Team weiß, wann KI zuverlässig ist und wann nicht
    Keine Dokumentation der KI-Entscheidungen
    Klare Prozesse: was wird geprüft, was wird protokolliert
    GF haftet persönlich im Zweifelsfall
    Nachweisbare Compliance — auch bei Behördenanfragen
    Vertrauenslücke bleibt
    Mitarbeiter arbeiten sicher und gezielt mit KI

    Was das für dich bedeutet — konkret

    Wenn du KI in deinem Unternehmen einsetzt — auch nur einzelne Mitarbeiter mit ChatGPT — sind drei Fragen relevant:

    1. Wissen deine Mitarbeiter, wann sie KI-Ergebnissen vertrauen können? Nicht jede KI-Antwort ist verlässlich. Wer das nicht unterscheiden kann, macht Fehler — und das Unternehmen haftet dafür.

    2. Gibt es einen Prozess, der KI-gestützte Entscheidungen dokumentiert? Nicht für jeden Entwurfstext. Aber für alles, was Kunden, Mitarbeiter oder Behörden betrifft: ja.

    3. Weiß irgendjemand in deinem Unternehmen, was der EU AI Act von euch verlangt? Die meisten Mittelständler kennen die Antwort nicht. Das ändert sich ab August — spätestens wenn die erste Behörde nachfragt.

    Herausfinden, wo dein Team steht

    Zur Kompetenzanalyse

    Was sinnvoll ist — und was nicht

    Die Antwort ist nicht: KI sofort abschalten. Das wäre ein Wettbewerbsnachteil.

    Die Antwort ist auch nicht: sofort ein Compliance-Projekt starten. Das ist für die meisten Mittelständler überdimensioniert.

    Die Antwort ist: ein oder zwei Mitarbeiter gezielt qualifizieren. Nicht allgemein in "KI", sondern konkret in den Anwendungen, die ihr bereits nutzt oder nutzen wollt. Damit sie wissen, wann KI zuverlässig ist, wie man Ergebnisse prüft — und wie man das dokumentiert, wenn es drauf ankommt.

    Das schließt die Vertrauenslücke aus dem Stanford-Report. Und es macht aus einem Haftungsrisiko eine nachweisbare Kompetenz.

    4 Monate

    bis EU AI Act-Transparenzpflichten greifen

    Inkrafttreten: 2. August 2026

    Der erste Schritt ist ein 15-minütiges Gespräch. Wir schauen gemeinsam, wie dein Team KI gerade nutzt — und was konkret fehlt, damit es sicher, verlässlich und regelkonform läuft.

    Gut zu wissen

    KI-Qualifizierung ist über das Qualifizierungschancengesetz förderfähig — bis zu 100% der Weiterbildungskosten für KMU. Kein Grund, das Thema aufzuschieben.

    Dennis Teubner
    Dennis Teubner

    Berater für Kompetenzentwicklung im Mittelstand

    Brauchst du Unterstützung?

    Erstgespräch buchen