
Künstliche Intelligenz ist im Mittelstand angekommen: Bereits 67 Prozent der deutschen Beschäftigten nutzen regelmäßig generative KI-Tools. Die Frage ist also längst nicht mehr, ob Unternehmen künstliche Intelligenz einsetzen - sondern wie sie es tun.
Hier wird es interessant: Denn während die Nutzung steigt, bleibt das Vertrauen auf der Strecke. Nur 32 Prozent der Deutschen vertrauen KI-generierten Inhalten - gleichzeitig kommt sie bei zwei Drittel regelmäßig zum Einsatz. Dieses Spannungsfeld zwischen intensiver Nutzung und wachsender Skepsis ist kein rein technisches Problem, sondern eine zentrale Herausforderung für das Vertrauen in KI-Systeme. Vertrauen entsteht nicht allein durch bessere Algorithmen, sondern erfordert ein verantwortungsvolles Verhalten aller Beteiligten – von den Entwickler:innen über Unternehmen bis hin zur gesamten Gesellschaft.
Ethik und KI ist daher ein unverzichtbarer Teilbereich, der den Fokus auf den verantwortungsvollen Umgang mit künstlicher Intelligenz legt und die Auswirkungen auf Menschen und Gesellschaft in den Mittelpunkt stellt.
Die rechtlichen Rahmenbedingungen für künstliche Intelligenz sind mittlerweile klar definiert. Der EU AI Act ist seit August 2024 in Kraft, die ersten Verbote greifen, weitere Pflichten folgen stufenweise bis 2027. Wer sich für die konkreten rechtlichen Anforderungen interessiert, findet in unserem Artikel Datenschutz & KI-Verordnung einen umfassenden Überblick.
Doch Compliance allein schafft kein Vertrauen. Ein KI-System kann alle gesetzlichen Anforderungen erfüllen und trotzdem Entscheidungen treffen, die Menschen als falsch empfinden. Es kann rechtskonform arbeiten und dennoch eine Unternehmenskultur verändern. Genau deshalb braucht es neben dem rechtlichen Rahmen eine ethische Haltung - eine bewusste Entscheidung darüber, wie künstliche Intelligenz im Unternehmen eingesetzt werden soll.
Diese Haltung beantwortet Fragen, die kein Gesetz regelt:
Der Bundesverband Digitale Wirtschaft (BVDW) hat sechs Prinzipien formuliert, die als Orientierung für ethischen KI-Einsatz dienen. Diese Grundsätze sind kein Gesetz, aber ein hilfreicher Rahmen für Unternehmen, die künstliche Intelligenz bewusst einsetzen wollen.
KI-Systeme sollten alle Menschen gleich behandeln, unabhängig von Geschlecht, Herkunft oder anderen Merkmalen. Das klingt selbstverständlich, ist aber technisch anspruchsvoll. Künstliche Intelligenz lernt aus historischen Daten, und wenn diese Daten gesellschaftliche Vorurteile widerspiegeln, reproduziert das System sie. Fairness bedeutet, diese Muster aktiv zu erkennen und zu korrigieren.
Mitarbeitende und Kund:innen sollten wissen, wann sie mit künstlicher Intelligenz interagieren. Das betrifft offensichtliche Fälle wie Chatbots, aber auch subtilere Anwendungen, etwa wenn KI-Systeme bei der Vorauswahl von Bewerbungen unterstützen oder Empfehlungen für Geschäftsentscheidungen generieren. Transparenz bedeutet, diese Informationen aktiv bereitzustellen.
Warum hat die künstliche Intelligenz diese Empfehlung gegeben? Diese Frage sollte beantwortbar sein. Vollständige Erklärbarkeit ist bei komplexen Modellen nicht immer möglich, aber das Prinzip dahinter bleibt wichtig. Menschen sollten verstehen können, wie eine Entscheidung zustande kam, die sie betrifft.
Welche Daten fließen in die künstliche Intelligenz? Wie werden sie verarbeitet? Wo werden sie gespeichert? Diese Fragen sind nicht nur rechtlich relevant, sondern auch ein Vertrauensfaktor. Mitarbeitende, die nicht wissen, was mit ihren Informationen passiert, werden KI-Systemen skeptisch gegenüberstehen.
KI-Systeme müssen vor Manipulation geschützt sein. Die Risiken betreffen technische Aspekte wie Cybersecurity, aber auch die Frage, wer Zugang zu welchen Systemen hat und wie Missbrauch verhindert wird. Robustheit bedeutet, dass das System auch unter unerwarteten Bedingungen zuverlässig funktioniert.
Wenn eine Entscheidung der künstlichen Intelligenz falsch ist, wer trägt die Verantwortung? Diese Frage muss vor dem Einsatz geklärt sein, nicht danach. Verantwortlichkeit bedeutet auch, dass es immer eine Person gibt, die eingreifen kann.
Die BCG-Studie AI at Work 2025 zeigt ein interessantes Muster: 67 Prozent der deutschen Beschäftigten nutzen künstliche Intelligenz, aber nur 36 Prozent fühlen sich ausreichend darauf vorbereitet. In Unternehmen mit besonders intensiver KI-Nutzung sorgen sich 46 Prozent der Mitarbeitenden um ihren Job. Deutlich mehr als in Unternehmen mit geringerer KI-Affinität.
Das ist keine widersprüchliche Situation, sondern eine nachvollziehbare Entwicklung. Mit der zunehmenden Präsenz künstlicher Intelligenz im Alltag werden auch die damit verbundenen Ängste für viele Menschen deutlicher wahrnehmbar. Diese Ängste lassen sich nicht durch Ignorieren beseitigen, sondern erfordern offene Kommunikation, klare Leitlinien und die Einbindung der betroffenen Personen.
Beschäftigte, die von ihrer Führung aktiv unterstützt werden, zeigen eine deutlich positivere Einstellung gegenüber künstlicher Intelligenz und ihren eigenen Karrierechancen. Diese Unterstützung fördert nicht nur die Freude an der Arbeit, sondern stärkt auch das Vertrauen in die berufliche Zukunft. Wenn Führungskräfte ihre Mitarbeitenden begleiten, Ängste ernst nehmen und Hilfestellung bieten, entsteht ein konstruktives Umfeld, in welchem die Potenziale von KI-Technologien besser genutzt werden können. So wird nicht nur die Akzeptanz von KI gesteigert, sondern auch die Motivation und das Engagement der Mitarbeitenden nachhaltig gefördert.
Wie es Mittelständler:innen gelingt, Teams nicht nur zu informieren, sondern wirklich mitzunehmen, erfährst du auf der Mittelstands Stage auf dem data:unplugged Festival am 26. & 27. März. Die Antworten kommen von Führungskräften, die diesen Weg bereits gegangen sind.
Ethischer Einsatz künstlicher Intelligenz ist kein einmaliges Projekt, sondern ein kontinuierlicher Prozess. Die folgenden fünf Schritte helfen, eine entsprechende Kultur im Unternehmen zu etablieren.
Welche KI-Systeme sind bereits im Einsatz? 43 Prozent der Beschäftigten nutzen KI-Tools, ohne die Ergebnisse kritisch zu prüfen. Und fast die Hälfte gibt KI-generierte Inhalte als eigene Arbeit aus. Bevor Richtlinien greifen können, muss klar sein, was überhaupt passiert.
Was darf mit künstlicher Intelligenz gemacht werden, was nicht? Welche Daten dürfen eingegeben werden? Wie werden Ergebnisse gekennzeichnet? Diese Fragen brauchen klare Antworten, nicht als Verbotsliste, sondern als Orientierungsrahmen.
Wer entscheidet über den Einsatz neuer KI-Tools? Wer prüft die Ergebnisse? Wer ist Ansprechpartner:in bei Fragen oder Problemen? Ohne klare Zuständigkeiten bleibt ethischer KI-Einsatz ein Lippenbekenntnis.
Nur ein vergleichsweise kleiner Anteil der Menschen hat bisher eine Schulung zu künstlicher Intelligenz absolviert – weltweit besteht hier noch deutlicher Nachholbedarf. Dieses Defizit birgt Risiken, denn wer KI-Systeme nicht versteht, kann sie weder effektiv nutzen noch kritisch hinterfragen. Schulungen vermitteln daher nicht nur technisches Wissen, sondern auch die Fähigkeit, Ergebnisse richtig einzuordnen und Grenzen zu erkennen.
Ethische Fragen tauchen oft erst im Alltag auf, wenn ein KI-Ergebnis seltsam wirkt, wenn sich jemand unwohl fühlt oder wenn etwas nicht funktioniert, wie erwartet. Diese Beobachtungen brauchen einen Kanal. Regelmäßiges Feedback schafft nicht nur bessere Prozesse, sondern auch mehr Vertrauen.
In den Masterclasses auf dem data:unplugged Festival bietet sich die Möglichkeit, sich mit Expert:innen über konkrete Leitlinien für den ethischen KI-Einsatz auszutauschen - praxisnah und interaktiv.
Unternehmen, die jetzt in ethische KI-Praktiken investieren, gewinnen mehr als nur Compliance. Sie gewinnen Vertrauen bei Mitarbeitenden, Kund:innen und Partner:innen. Das Vertrauen in eine Technologie, die viele in der Gesellschaft noch nicht vollständig verstehen, ist ein echter Wettbewerbsvorteil.
Verbraucher:innen, die den Einsatz künstlicher Intelligenz eines Unternehmens als ethisch wahrnehmen, sind eher bereit, diesem Unternehmen zu vertrauen, es weiterzuempfehlen und langfristig treu zu bleiben. Umgekehrt gilt: Negative Erfahrungen mit KI-Systemen führen zu Beschwerden, Forderungen nach Erklärungen und im schlimmsten Fall zum Abbruch der Geschäftsbeziehung.
Für den Mittelstand ist das eine besondere Chance. Während Großkonzerne oft mit komplexen Legacy-Systemen und trägen Strukturen kämpfen, können mittelständische Unternehmen schneller eine konsistente Kultur für den Einsatz künstlicher Intelligenz etablieren. Die persönlichen Beziehungen zu Mitarbeitenden und Kund:innen machen es leichter, Vertrauen aufzubauen.
Ethische Prinzipien klingen abstrakt, bis sie auf konkrete Situationen treffen. Drei Beispiele zeigen, wo Unternehmen im Alltag vor Entscheidungen stehen.
Im Recruiting nutzen viele Unternehmen bereits künstliche Intelligenz zur Vorauswahl von Bewerbungen. Die Effizienzgewinne sind real, aber auch die Risiken. Wenn das System auf historischen Einstellungsdaten trainiert wurde, reproduziert es möglicherweise Muster aus der Vergangenheit. Ein Unternehmen, das bisher wenige Frauen in Führungspositionen hatte, könnte ein System bekommen, das weibliche Bewerberinnen systematisch schlechter bewertet. Die ethische Frage lautet: Wie stellen wir sicher, dass künstliche Intelligenz nicht bestehende Vorurteile verstärkt? Die Antwort liegt in regelmäßigen Audits, diversen Trainingsdaten und menschlicher Kontrolle bei kritischen Entscheidungen.
Im Kundenservice sind KI-Chatbots längst Standard. Viele Kund:innen akzeptieren das, solange sie wissen, womit sie interagieren. Problematisch wird es, wenn Unternehmen versuchen, den Bot als Menschen zu tarnen. Die kurzfristige Effizienz wird mit langfristigem Vertrauensverlust bezahlt. Transparenz ist hier nicht nur ethisch geboten, sondern auch geschäftlich klug.
Bei der internen Nutzung von KI-Tools entstehen Fragen, die viele Unternehmen noch gar nicht auf dem Radar haben. Wenn Mitarbeitende ChatGPT nutzen, um E-Mails zu formulieren oder Präsentationen zu erstellen, welche Unternehmensdaten fließen dabei in externe Systeme? Wer haftet, wenn KI-generierte Inhalte fehlerhaft sind? Diese Fragen brauchen Antworten, bevor sie zu Problemen werden.
Die Entwicklung einer ethischen KI-Kultur funktioniert nicht ohne Führung. Führungskräfte müssen nicht selbst KI-Expert:innen sein, aber sie müssen drei Dinge leisten:
Ethische Bedenken gegenüber künstlicher Intelligenz sind berechtigt. Aber sie sind kein Argument gegen den Einsatz, sondern ein Argument für bewussten Einsatz. Unternehmen, die ethische Fragen ernst nehmen, treffen bessere Entscheidungen, gewinnen mehr Vertrauen und sind langfristig erfolgreicher.
Ein verantwortungsvoller Einsatz künstlicher Intelligenz ist gut umsetzbar. Er erfordert keine perfekten Systeme, sondern eine klare Haltung, transparente Kommunikation und die Bereitschaft zur kontinuierlichen Weiterentwicklung. Dafür sind Orte notwendig, an denen Fragen der KI-Ethik sachlich und offen diskutiert werden – jenseits von Hype und Ängsten.
Wie andere Mittelständler:innen den Weg zu einer ethischen KI-Kultur erfolgreich gehen, erfährst du auf dem data:unplugged Festival 2026 am 26. & 27. März in Münster. Die Mittelstands Stage widmet sich unter anderem der Frage, wie Unternehmen KI-Systeme nicht nur einführen, sondern nachhaltig verankern. In Masterclasses werden konkrete Leitlinien erarbeitet. Und im Austausch mit anderen Entscheider:innen entstehen die Ideen, die im eigenen Unternehmen den Unterschied machen.
KI Ethik betrifft alle Unternehmensbereiche: Für eine effektive Umsetzung ist es entscheidend, Key-Personen deines Unternehmens mitzunehmen, fortzubilden und positiv auf den Einsatz vorzubereiten. data:unplugged steht für eine breite und fundierte Wissensvermittlung - von der das gesamte Business-Team profitiert. Sicher dir jetzt ein Ticket für dich und dein Kernteam!