Firmenfachbeitrag
KI ohne Ethik – das geht nicht
Künstliche Intelligenz und auch Generative AI hat in den vergangenen Monaten in vielen Unternehmen eine riesige Erwartungshaltung geweckt, allen voran ChatGPT. Drei Viertel der User, die den Chatbot von OpenAI einsetzen, sind einer Studie von adesso zufolge zufrieden oder sehr zufrieden mit ihm – kein Wunder, spart er doch bis zu fünf Stunden Arbeitszeit pro Woche ein. Die überwältigende Mehrheit stört sich wohl auch deshalb nicht daran, dass ChatGPT teilweise fragwürdige oder frei erfundene Informationen liefert.
Treiben Unternehmen die Nutzung von generativer KI voran, dürfen sie solche Probleme nicht weiter ignorieren, da falsche Informationen oder Entscheidungen weitreichende Folgen haben können. Schliesslich kommen KI-Systeme in immer mehr und in durchaus sensiblen Bereichen wie der Auswahl von Bewerbenden oder der Kreditvergabe zum Einsatz. Arbeitet die KI dort nicht fair und fehlerfrei, verlieren die Menschen das Vertrauen in sie, was schnell zu einem Kunden- und Reputationsverlust und damit auch zu Umsatzeinbussen führen kann. Deshalb können Unternehmen sich nicht einfach hinter der KI verstecken und ihr die Schuld zuschieben – sie müssen die Verantwortung übernehmen, selbst wenn die Algorithmen völlig eigenständig arbeiten. Das geht jedoch nur, wenn sie ihre KI-Systeme verantwortungsvoll gestalten und einsetzen. Aber was heisst das konkret?
Quelle: adesso Schweiz
Um für Fairness zu sorgen, müssen Unternehmen sicherstellen, dass ihre KI-Systeme niemanden diskriminieren und alle Personen und Gruppen gerecht behandeln. Das ist nicht immer einfach, denn bisweilen trainieren sich die Algorithmen unbemerkt Voreingenommenheiten an, die in den Trainingsdaten stecken – beispielsweise, wenn diese gesellschaftliche Vorurteile enthalten oder nicht mehr heutigen Standards in puncto Gleichberechtigung entsprechen. Agiert die KI zudem als Black Box, lässt sich nicht nachvollziehen, wie sie zu ihren Ergebnissen kommt, sodass Korrekturen nur schwer möglich sind.
Vermeiden können Unternehmen dieses Verhalten, indem sie ihre KI-Systeme transparent gestalten, damit jederzeit Einblicke in Entscheidungsprozesse möglich sind. Darüber hinaus müssen sie die Trainingsdaten sorgfältig auswählen. Mit diversen und integrativen Entwicklungsteams fällt beides leichter, denn diese bringen verschiedene Perspektiven ein, was dabei hilft, mögliche Voreingenommenheiten und blinde Flecken zu erkennen und zu beseitigen. Ebenso sind regelmässige Audits notwendig, um das Verhalten von KI-Systemen nicht nur auf korrekte und faire Entscheidungen hin zu überprüfen, sondern auch auf die Einhaltung von Sicherheits- und Datenschutzstandards. Denn KI muss sensible Daten und die Privatsphäre der Nutzerinnen und Nutzer zuverlässig schützen, indem sie rechtliche Vorgaben und bewährte Verfahren einhält.
Aufklärung stärkt die Akzeptanz
Mit Schulungen sollten Unternehmen bei Entwicklerinnen und Entwicklern, Data Scientists sowie anderen Beteiligten ein Bewusstsein für ethische KI schaffen. Darüber hinaus helfen ein offener Umgang mit dem KI-Einsatz und eine proaktive Kommunikation dabei, die Akzeptanz zu steigern – sowohl bei Kundinnen und Kunden als auch innerhalb des Unternehmens. Immerhin ist die Einführung von KI häufig mit Sorgen um veränderte Aufgaben oder einen Verlust des Arbeitsplatzes verbunden. Hier gilt es, frühzeitig aufzuklären, wie sich Stellenprofile verändern und wie KI den Arbeitsalltag erleichtert.
Letztlich steckt in KI ein enormes Potenzial, Arbeitsabläufe zu automatisieren, Entscheidungen zu verbessern und neue Geschäftsmodelle zu entwickeln. Je ausgefeilter die KI-Systeme werden, desto mehr stellt sich allerdings die Frage nach ihrem moralischen Handeln und ihren Entscheidungsmöglichkeiten. Unternehmen müssen deshalb eine Balance aus Innovation und Verantwortung finden, damit ihre KI-Systeme im Einklang mit menschlichen Werten stehen und keine negativen gesellschaftlichen Auswirkungen haben. Dafür braucht es immer auch eine ethische und menschliche Perspektive bei der Entwicklung – die rein technologische reicht nicht aus.
Dieser Beitrag wurde von Adesso Schweiz AG zur Verfügung gestellt und stellt die Sicht des Unternehmens dar. Computerworld übernimmt für dessen Inhalt keine Verantwortung.