Künstliche Intelligenz (KI) ist längst im Arbeitsalltag angekommen – ob bei der Texterstellung, Datenanalyse oder im Kundenservice. Seit Anfang 2025 gelten neue Anforderungen für Unternehmen, die KI beruflich nutzen. Wer jetzt handelt, schafft Klarheit, Sicherheit und Vertrauen – und vermeidet spätere Risiken und Bußgelder.

Verschaffen Sie sich einen Überblick darüber, wo in Ihrem Unternehmen bereits KI zum Einsatz kommt – auch in Bereichen, in denen Mitarbeitende KI-Tools möglicherweise ohne offizielle Freigabe oder Richtlinie nutzen, z. B. für Textentwürfe, Übersetzungen oder Präsentationen.

  1. Überblick verschaffen und Rollen klären

Verschaffen Sie sich einen Überblick darüber, wo in Ihrem Unternehmen bereits KI zum Einsatz kommt – auch in Bereichen, in denen Mitarbeitende KI-Tools möglicherweise ohne offizielle Freigabe oder Richtlinie nutzen, z. B. für Textentwürfe, Übersetzungen oder Präsentationen.

Unternehmen müssen ihre Rolle im Umgang mit KI eindeutig definieren – denn davon hängen rechtliche Pflichten und organisatorische Maßnahmen ab.

  • Betreiber ist, wer KI-Tools wie ChatGPT, Copilot oder andere Systeme beruflich nutzt – z. B. zur Texterstellung, Datenanalyse, Kundenkommunikation oder auch intern für E-Mails, Präsentationen oder Code-Generierung. Entscheidend ist: Die KI wird nicht entwickelt oder verkauft, sondern im eigenen Arbeitsprozess eingesetzt. Auch die Nutzung durch einzelne Mitarbeitende zählt – etwa im Marketing, Vertrieb oder IT.
  • Anbieter ist, wer KI-Systeme entwickelt, vertreibt oder bereitstellt – z. B. als Softwarehersteller, Plattformbetreiber oder IT-Dienstleister. Anbieter tragen zusätzliche Verantwortung, etwa für die Sicherheit, Transparenz und Risikobewertung ihrer Systeme – insbesondere bei Hochrisiko-Anwendungen wie biometrischer Identifikation oder automatisierter Entscheidungsfindung.
  1. Dokumentationspflicht

Seit dem 2. Februar 2025 müssen Unternehmen dokumentieren, wo und wie KI eingesetzt wird. Dazu gehören:

  • Zweck der Nutzung
  • Eingesetzte Tools
  • Verantwortliche Personen
  • Risikobewertung
  1. Schulungspflicht für Mitarbeitende

Ebenfalls seit dem 2. Februar 2025 gilt: Alle Mitarbeitenden, die mit KI arbeiten, müssen geschult sein. Inhalte der Schulung:

  • Funktionsweise und Grenzen von KI
  • Datenschutz und ethische Risiken
  • Umgang mit KI-generierten Inhalten

Die Schulungen sind zu dokumentieren und regelmäßig zu aktualisieren.

  1. Datenschutz & Vertraulichkeit

Der Schutz sensibler Daten bleibt zentral:

  • Keine personenbezogenen Daten ohne DSGVO-konforme Einwilligung in KI-Tools eingeben
  • Keine vertraulichen Geschäftsinformationen in öffentlich zugängliche KI-Systeme wie ChatGPT
  • Technische und organisatorische Maßnahmen (TOM) sind Pflicht
  1. Interne KI-Richtlinie einführen

Eine unternehmensweite Richtlinie sollte regeln:

  • Welche Tools erlaubt sind
  • Welche Einsatzzwecke zulässig sind
  • Wie Ergebnisse geprüft und gekennzeichnet werden
  • Wer verantwortlich ist
  1. Transparenz & Kennzeichnung

Seit dem 2. August 2025 gilt eine erweiterte Kennzeichnungspflicht für KI-Inhalte. KI-generierte Inhalte müssen klar gekennzeichnet sein – z. B. mit dem Hinweis:
„Dieser Inhalt wurde mit Unterstützung eines KI-Systems erstellt.“

Kennzeichnungspflicht besteht, wenn:

  • Inhalte täuschend echt wirken (z. B. realistische Bilder, Stimmen, Texte)
  • Texte ohne menschliche Prüfung veröffentlicht werden (z. B. Blogposts, Produktbeschreibungen)
  • KI direkt mit Menschen interagiert (z. B. Chatbots, Sprachassistenten)

Keine Kennzeichnung nötig, wenn:

  • KI nur unterstützend genutzt wird und ein Mensch die Verantwortung übernimmt
  • Inhalte nicht veröffentlicht werden (z. B. interne Memos)
  • Ergebnisse klar als KI-Inhalte erkennbar sind

Kennzeichnungsmöglichkeiten:

  • Textlich sichtbar: „Dieser Text wurde mithilfe von KI erstellt.“
  • Im Bild/Video: Wasserzeichen oder Hinweis im Abspann
  • Maschinenlesbar: Metadaten für Suchmaschinen und Plattformen
  1. Risiken managen

KI-Systeme müssen regelmäßig überwacht und bewertet werden. Bei Hochrisiko-Anwendungen wie Bewerber-Screening oder Kreditvergabe gelten besonders strenge Vorgaben.
Ab August 2026 treten weitere Pflichten für Anbieter und Betreiber solcher Systeme in Kraft.

Fazit - KI im Unternehmen ist kein Selbstläufer. Sie braucht Schulung, Verantwortung und klare Regeln – nicht nur technisch, sondern auch organisatorisch. Wer jetzt handelt, schützt nicht nur sich selbst, sondern auch Kunden, Mitarbeitende und die Unternehmensreputation.

Sie haben Interesse an unseren Leistungen?
Wir freuen uns auf Ihre Kontaktaufnahme!

+49 30 311 68990
E-Mail an FirstStep