Firmenfachbeitrag

Nr. 24-1 aktualisiert 2024-04-17 Lesedauer: min

KI ohne Ethik – das geht nicht

Quelle Chen - Pixabay

KI bietet enorme Chancen, muss aber ethischen Grundsätzen entsprechen, um das Vertrauen von Menschen zu gewinnen. Doch wie können Unternehmen sicherstellen, dass ihre KI-Systeme transparent, fair und sicher arbeiten?

Künstliche Intelligenz und auch Generative AI hat in den vergangenen Monaten in vielen Unternehmen eine riesige Erwartungshaltung geweckt, allen voran ChatGPT. Drei Viertel der User, die den Chatbot von OpenAI einsetzen, sind einer Studie von adesso zufolge zufrieden oder sehr zufrieden mit ihm – kein Wunder, spart er doch bis zu fünf Stunden Arbeitszeit pro Woche ein. Die überwältigende Mehrheit stört sich wohl auch deshalb nicht daran, dass ChatGPT teilweise fragwürdige oder frei erfundene Informationen liefert.

Treiben Unternehmen die Nutzung von generativer KI voran, dürfen sie solche Probleme nicht weiter ignorieren, da falsche Informationen oder Entscheidungen weitreichende Folgen haben können. Schliesslich kommen KI-Systeme in immer mehr und in durchaus sensiblen Bereichen wie der Auswahl von Bewerbenden oder der Kreditvergabe zum Einsatz. Arbeitet die KI dort nicht fair und fehlerfrei, verlieren die Menschen das Vertrauen in sie, was schnell zu einem Kunden- und Reputationsverlust und damit auch zu Umsatzeinbussen führen kann. Deshalb können Unternehmen sich nicht einfach hinter der KI verstecken und ihr die Schuld zuschieben – sie müssen die Verantwortung übernehmen, selbst wenn die Algorithmen völlig eigenständig arbeiten. Das geht jedoch nur, wenn sie ihre KI-Systeme verantwortungsvoll gestalten und einsetzen. Aber was heisst das konkret?

Quelle: adesso Schweiz

Unternehmen sehen grosse Chancen im Einsatz generativer KI – aber auch Hürden

Quelle: adesso Schweiz

Um für Fairness zu sorgen, müssen Unternehmen sicherstellen, dass ihre KI-Systeme niemanden diskriminieren und alle Personen und Gruppen gerecht behandeln. Das ist nicht immer einfach, denn bisweilen trainieren sich die Algorithmen unbemerkt Voreingenommenheiten an, die in den Trainingsdaten stecken – beispielsweise, wenn diese gesellschaftliche Vorurteile enthalten oder nicht mehr heutigen Standards in puncto Gleichberechtigung entsprechen. Agiert die KI zudem als Black Box, lässt sich nicht nachvollziehen, wie sie zu ihren Ergebnissen kommt, sodass Korrekturen nur schwer möglich sind.

Vermeiden können Unternehmen dieses Verhalten, indem sie ihre KI-Systeme transparent gestalten, damit jederzeit Einblicke in Entscheidungsprozesse möglich sind. Darüber hinaus müssen sie die Trainingsdaten sorgfältig auswählen. Mit diversen und integrativen Entwicklungsteams fällt beides leichter, denn diese bringen verschiedene Perspektiven ein, was dabei hilft, mögliche Voreingenommenheiten und blinde Flecken zu erkennen und zu beseitigen. Ebenso sind regelmässige Audits notwendig, um das Verhalten von KI-Systemen nicht nur auf korrekte und faire Entscheidungen hin zu überprüfen, sondern auch auf die Einhaltung von Sicherheits- und Datenschutzstandards. Denn KI muss sensible Daten und die Privatsphäre der Nutzerinnen und Nutzer zuverlässig schützen, indem sie rechtliche Vorgaben und bewährte Verfahren einhält.

Aufklärung stärkt die Akzeptanz

Mit Schulungen sollten Unternehmen bei Entwicklerinnen und Entwicklern, Data Scientists sowie anderen Beteiligten ein Bewusstsein für ethische KI schaffen. Darüber hinaus helfen ein offener Umgang mit dem KI-Einsatz und eine proaktive Kommunikation dabei, die Akzeptanz zu steigern – sowohl bei Kundinnen und Kunden als auch innerhalb des Unternehmens. Immerhin ist die Einführung von KI häufig mit Sorgen um veränderte Aufgaben oder einen Verlust des Arbeitsplatzes verbunden. Hier gilt es, frühzeitig aufzuklären, wie sich Stellenprofile verändern und wie KI den Arbeitsalltag erleichtert.

Letztlich steckt in KI ein enormes Potenzial, Arbeitsabläufe zu automatisieren, Entscheidungen zu verbessern und neue Geschäftsmodelle zu entwickeln. Je ausgefeilter die KI-Systeme werden, desto mehr stellt sich allerdings die Frage nach ihrem moralischen Handeln und ihren Entscheidungsmöglichkeiten. Unternehmen müssen deshalb eine Balance aus Innovation und Verantwortung finden, damit ihre KI-Systeme im Einklang mit menschlichen Werten stehen und keine negativen gesellschaftlichen Auswirkungen haben. Dafür braucht es immer auch eine ethische und menschliche Perspektive bei der Entwicklung – die rein technologische reicht nicht aus.

Dieser Beitrag wurde von Adesso Schweiz AG zur Verfügung gestellt und stellt die Sicht des Unternehmens dar. Computerworld übernimmt für dessen Inhalt keine Verantwortung.

Hansjörg Süess

CEO der adesso Schweiz AG

Hansjörg Süess ist seit Januar 2009 CEO der adesso Schweiz AG. Im Zentrum seiner Aufgaben stehen die Verstärkung der Vertriebs- und Marketingaktivitäten sowie die konsequente Weiterführung der Wachstumsstrategie von adesso im Schweizer Markt. Nach 4 Jahren als Delegierter des Verwaltungsrats der adesso Schweiz AG, übernahm er im Juni 2023 die Funktion des Verwaltungsratspräsidenten.