Künstliche Intelligenz in der Mobilität: Dein Freund und Helfer?

Shownotes

Wie wird Künstliche Intelligenz (KI) heute schon in der Mobilität genutzt und welche Zukunftsperspektiven gibt es? Welche ethischen Herausforderungen gibt es für den Einsatz von KI? Und was bedeutet eigentlich Human-in-the-Loop?

In der 16. mCAST-Folge sprechen wir mit unseren Gästen über den Einsatz von Künstlicher Intelligenz in der Mobilität. Joachim von Beesten von der Björn-Steiger-Stiftung erklärt anhand des mFUND-Projekts AIRCIS, wo KI bereits in der Mobilität genutzt wird und welche Chancen sie in der Notfallhilfe bietet. Dr. Benjamin Lange von der LMU München und dem Munich Center for Machine Learning (MCML) erläutert die Rolle des Menschen für die Nutzung von KI: Es geht um Fragen der Verantwortung, Kontrolle und Ethik, die zum Teil (noch) vom Menschen beantwortet werden müssen. Wir besprechen, was Human-in-the-Loop bedeutet – und wie sich das Konzept in Zukunft weiterentwickeln wird.

Unsere Gäste sind sich einig: Künstliche Intelligenz bietet für die Mobilität viele Chancen, bringt aber auch noch offene Fragen mit sich.

Zu Gast im Podcast

Joachim von Beesten ist seit sechs Jahren für die Björn Steiger Stiftung tätig, die eine Verbesserung der Notfallhilfe anstrebt. Bekannte Meilensteine sind die Einführung der bundesweiten Notrufnummern 112/110 und der zivilen Luftrettung. Herr von Beesten verantwortet den Geschäftsbereich Forschung, Entwicklung und Sonderfahrzeuge und leitet dort Forschungsprojekte, die eine Verbesserung der Notfallhilfe durch Technologien wie Drohnen, Digitale Zwillinge und Künstliche Intelligenz erreichen möchten.

Dr. Benjamin Lange leitet eine Nachwuchsgruppe in der Ethik der KI und maschinellem Lernen an der Ludwig-Maximilians-Universität München (LMU) und dem Munich Center for Machine Learning (MCML). Ergänzend ist Benjamin Lange Ethikberater für Unternehmen und Organisationen und berät zu Themen im Bereich Corporate Ethics and Compliance, Corporate Social Responsiblity (CSR), Corporate Digital Responsibility (CDR), Digitaler Ethik sowie zur Ethik der KI und Innovation.

Weiterführende Informationen

Transkript anzeigen

00:00:00: mCAST, der Innovations-Podcast. Wie wir morgen unterwegs sind.

00:00:09: Hallo liebe Zuhörerinnen und Zuhörer und willkommen zu einer Folge von mCAST.

00:00:16: Ich bin Johanna Drumann - und ich bin Felix Schneider.

00:00:20: Hallo.

00:00:21: Gemeinsam mit unseren Gästen schauen wir uns aktuelle Trends in der Mobilität an und

00:00:24: fragen nach: was steckt hinter den Buzzwords?

00:00:26: Was ist notwendig, um dahin zu kommen - und wollen wir das als Gesellschaft eigentlich

00:00:30: wirklich?

00:00:31: Und das wichtigste technologische Buzzword momentan auch über die Mobilität hinaus

00:00:37: ist wohl KI, Künstliche Intelligenz.

00:00:39: Spätestens mit ChatGPT ist das ja definitiv mehr als ein Hype und gerade dabei, unsere

00:00:45: komplette Gesellschaft zu verändern.

00:00:47: Wer uns jetzt schon länger verfolgt, hat sich vielleicht gefragt, noch eine KI-Folge?

00:00:51: Wir haben uns nämlich im April 2024 schon mal über Künstliche Intelligenz unterhalten.

00:00:56: Hört da gerne mal rein, wir verlinken die Folge in den Show-Notes.

00:01:00: Wir machen aber trotzdem noch eine zweite Folge zum Thema, denn Künstliche Intelligenz

00:01:05: ist in aller Munde.

00:01:06: Zum Beispiel im aktuellen Koalitionsvertrag wird KI ganz besonders hervorgehoben.

00:01:10: Da steht, dass Deutschland Spitzenstandort für digitale Zukunftstechnologien sein soll,

00:01:15: inklusive KI.

00:01:16: Da werden vor allem die Chancen von KI in allen Bereichen unterstrichen, die uns so

00:01:21: betreffen, also Arbeitswelt, Landwirtschaft, Steuern und Sicherheit.

00:01:25: Aber wie sieht es denn eigentlich für den Bereich Mobilität aus?

00:01:28: Diese Frage wollen wir uns heute näher anschauen.

00:01:31: Genau, während es in Folge 3, also in der Folge vom letzten Jahr, um den Einsatz von KI im

00:01:37: Innovationsprozess ging, wollen wir heute über das Thema Einsatzpotenziale von KI in

00:01:43: der Mobilität ganz grundsätzlich sprechen und über aktuelle Herausforderungen.

00:01:47: Außerdem sprechen wir über Human in the Loop, also über die Frage, behält der Mensch die

00:01:53: Kontrolle und wenn nicht, wer trägt dann die Verantwortung für Künstliche Intelligenz?

00:01:58: Doch zuallererst schauen wir auf die Einsatzpotenziale von KI in der Mobilität.

00:02:04: Dafür haben wir Joachim von Beesten von der Björn-Steiger-Stiftung eingeladen, der online

00:02:08: zu uns ins Studie geschaltet ist.

00:02:10: Mit seinem mFUND-Projetz AIRCIS erarbeitet er die Nutzung von Künstlicher Intelligenz

00:02:14: in Rettungsketten.

00:02:16: Und danach sprechen wir mit Dr. Benjamin Lange heute ausnahmsweise mal live aus unserem

00:02:21: Büro in Essen über Human in the Loop und ethische Fragen von KI in der Mobilität.

00:02:26: Viel Spaß mit der heutigen Folge.

00:02:29: Joachim von Beesten ist seit sechs Jahren für die Björn-Steiger-Stiftung tätig, die

00:02:40: eine Verbesserung der Notfallhilfe erreichen will.

00:02:43: Dort leitet er den Geschäftsbereich Forschung, Entwicklung und Sonderfahrzeuge.

00:02:48: Die Forschungsprojekte der Stiftung untersuchen die Verbesserung von Notfallhilfe durch Technologien

00:02:55: wie Drohnen, digitale Zwillinge und Künstliche Intelligenz.

00:02:59: Herr von Beesten, schön, dass Sie da sind.

00:03:00: Ich grüße Sie, Herr Schneider, hallo.

00:03:04: Herr von Beesten, wenn Sie Ihrer Nachbarin, die jetzt kein Smartphone hat, erklären wollten,

00:03:09: was Künstliche Intelligenz ist, wie würden Sie das machen wollen?

00:03:12: Zum einen habe ich nur Nachbarinnen, die schon in der Gegenwart angekommen sind.

00:03:19: Zum anderen, vielleicht muss man so unterscheiden für den Zuhörer, dass wir von verschiedenen

00:03:24: Qualitäten oder auch Entwicklungsstufen von Künstlicher Intelligenz sprechen können.

00:03:28: Wenn man so ein bisschen historisch schaut, dann hat KI vielleicht angefangen mit dem

00:03:33: Thema regelbasierte Systeme und wir sind ja hier in einem Podcast, der vom BMDV initiiert

00:03:38: wurde.

00:03:39: Wenn man mal in die Mobilität schaut, dann kennt jeder sicherlich, der mit dem Auto unterwegs

00:03:44: ist,

00:03:45: die Ampelsteuerungen, das waren früher ganz traditionelle, regelbasierte Systeme, die

00:03:50: montags bis freitags, acht bis zehn Uhr eine andere Ampelphase gezeigt haben als zu anderen

00:03:55: Uhrzeiten und Tageszeiten.

00:03:57: Das war die alte Welt, die neue Welt, mit der wir tagtäglich konfrontiert sind, ist

00:04:03: dann eher das Maschinelle Lernen.

00:04:04: Das geht etwas tiefer.

00:04:06: Hier wird die Künstliche Intelligenz trainiert.

00:04:09: Und es sieht so aus, dass man dann wieder bezogen auf die Mobilität zum einen intelligente

00:04:15: Ampelsteuerung hat.

00:04:16: Das heißt, wetteabhängig, feiertagsabhängig, ist eine Messe in der Stadt, wie sind die

00:04:21: Witterungsbedingungen oder eben auch die intelligente Navigation.

00:04:25: Das heißt, ich habe zu einem Ziel eingegeben, aber es werden eben Verkehrsbehältnisse,

00:04:30: Staus, Baustellen entsprechend berücksichtigt.

00:04:33: Und das, was glaube ich jeder von uns wahrscheinlich schon tagtäglich nutzt, ChatGPT

00:04:38: ist da sicherlich ein gutes Beispiel, sind dann die neuronalen Netze, wo wirklich tief

00:04:44: gelernt wird und wirklich mit dem Gehirn wirklich Erfahrungen verarbeitet werden, zu Entscheidungen

00:04:50: zusammengeführt werden.

00:04:51: Bei den modernen Fahrzeugen auch das Thema Sprachsteuerung, dass nicht nur die Sprache

00:04:56: erkannt wird, sondern Syntax eben auch verarbeitet wird.

00:05:01: Also in modernen Elektrofahrzeugen "Navigiere mich zum nächsten Schnelllader".

00:05:06: Das heißt, die Software an Bord muss genau diese Information verarbeiten für eine Navigation,

00:05:13: für eine Abstufung eben auch der Ladeeinrichtung, und mich da hinführen.

00:05:17: Das für die Nachbarin, wie Sie angesprochen haben, also eine Abstufung an Evolution bei

00:05:22: der Entwicklung und auch einen Einzug in unseren Alltag, den wir tagtäglich nutzen oder den

00:05:28: wir tagtäglich eben auch begegnen.

00:05:29: Sie hatten vorhin verschiedene Punkte angesprochen, die die KI kann.

00:05:33: Können Sie einmal deutlich machen, was kann KI heute schon und was kann KI heute noch

00:05:39: nicht - in Klammern noch nicht?

00:05:42: Das ist eine gute Frage, denn die Forschung schreitet voran und man muss das Thema auch

00:05:48: ein bisschen breiter fassen, denn wir haben in unserem Projekt festgestellt, KI kann immer

00:05:53: das, was der Mensch ihr antrainiert, auf einer Basis von Netzwerken von Software, die ein

00:06:00: anderer Mensch oder vielleicht eine andere KI entwickelt hat.

00:06:02: So dass ich natürlich in der Art und Weise, wie ich Daten auswähle oder auch Daten, man

00:06:08: sagt so schön, labeln.

00:06:10: Das heißt ich sage der KI, das ist ein rotes Auto, das ist ein grünes Auto, das ist ein

00:06:15: Kind, das ein mögliches Verhalten von einem Verkehrsteilnehmer.

00:06:19: Genau auf Basis meines Inputs lernt die KI.

00:06:23: Das heißt, was wir als Menschen Lebenserfahrung nennen, was wir selbst erlebt haben in Situationen,

00:06:28: wo auch das Bauchgefühl mitentschieden hat.

00:06:31: Da stößt KI an seine Grenzen.

00:06:33: Von daher meine persönliche Meinung bei diesem Thema und gerade wenn es auch um Empathie

00:06:37: geht, ich kann zwar objektiv Fragen stellen, in vielen Situationen sehr, sehr wichtig.

00:06:42: Andererseits stößt da KI einfach an die Grenzen und ich gebe der KI auch so ein bisschen so

00:06:47: ein Bias mit, indem ich natürlich einen Schwerpunkt lege, entweder als Entwickler oder eben auch

00:06:52: als sozusagen Fütterer mit Daten, in welche Richtung eine KI vielleicht eine gewisse Ausprägung

00:07:00: hat und wo man vielleicht einen gewissen blinden Fleck hat, um in diesem Bild mal zu bleiben.

00:07:04: Sie hatten jetzt schon unterschiedliche Schwachpunkte von KI aktuell angesprochen.

00:07:10: Das Thema Empathie, das Thema Bias, da würde ich später gerne noch mal drauf eingehen.

00:07:15: Aber erstmal möchte ich von Ihnen wissen, Sie arbeiten in dem Projekt AIRCIS.

00:07:21: Welches Problem löst Ihr Projekt?

00:07:24: AIRCIS ist zum einen, es ist ja im mFUND üblich, sich sozusagen eine Buchstabenabkürzung

00:07:30: zu überlegen.

00:07:31: In dem Fall steht es für Artificial Intelligence in Rescue Chains, also wie kann Künstliche

00:07:35: Intelligenz die Rettungskette verbessern?

00:07:38: Und was wir uns dort anschauen ist eine Weiterentwicklung von einer Problemstellung.

00:07:43: Wir haben ja vorhin über Anwendungsfälle gesprochen von KI, von neuronalen Netzen.

00:07:47: Natürlich gibt es schon Lösungen im Polizeiumfeld, wo man in bestimmten Bezirken zu bestimmten

00:07:54: Jahreszeiten, zu bestimmten Uhrzeiten verstärkt Patrouille fährt, weil die Wahrscheinlichkeit

00:07:58: für Hauseinbrüche sehr groß ist.

00:08:00: Ähnliches gibt es im Rettungsdienst, bei dem man eben, wenn Kräfte in einem Einsatz gebunden

00:08:05: sind, andere Kräfte intelligent verlagert, um gewisse Hilfsfristen einhalten zu können.

00:08:11: Wir gehen einen Schritt weiter und wir nehmen Rücksicht auf das Thema Extremwetter-Auswirkungen.

00:08:17: Und was wir machen ist, dass wir neben einem digitalen Zwilling für die Rettungsmittel,

00:08:23: wie komme ich von A nach B, wenn bei B ein Einsatz ist, welche Rettungsmittel schicke ich hin.

00:08:28: Das sind die Punkte, die einfach in einer Ausrückordnung drinstehen,

00:08:31: schauen wir uns eben auch an, welche Wetterprognosen vom deutschen Wetterdienst gibt es und welchen

00:08:37: Einfluss wird das auf Basis der Analyse der historischen Daten der Leitstellen, welchen

00:08:44: Einfluss wird das haben auf das Einsatzgeschehen, zum einen auf die Anzahl der Anrufe in der

00:08:49: Leitstelle und zum anderen,

00:08:50: wie muss ich frühzeitig Kräfte verlagern, um zum Beispiel durch Starkregen blockierte

00:08:57: Unterführungen oder Straßen, die ich dann nicht mehr passieren kann, in meiner Navigation

00:09:03: zur Einhaltung der Hilfsfrist dann eben mit einzukalkulieren.

00:09:06: Ich hatte eingangs schon erwähnt, dass Sie bei der Björn Steigerstiftung tätig sind,

00:09:10: die die Verbesserung der Notfallhilfe anstrebt.

00:09:12: Welches Problem existiert denn momentan bei der Ressourcenplanung in der Notfallhilfe?

00:09:17: Das würde Stoff für einen eigenen Podcast geben.

00:09:19: Zum einen gibt es natürlich auch da einen Fachkräftemangel.

00:09:21: Zum anderen hat man natürlich die Herausforderung, dass sehr viele Einsätze von Rettungswagen

00:09:27: oder auch Notärzten praktisch betreut werden, die eigentlich gar nicht diese Qualität an

00:09:31: Fachkräften vor Ort benötigen würden, sondern da müsste es andere Hilfe geben.

00:09:36: Was wir hier aber sehen ist, natürlich ist das Herz der Rettungskette die Leitstelle.

00:09:42: Dort trifft ja der Notruf auf und natürlich wird es bei einem Sturm oder Starkregenereignis

00:09:49: auch sehr, sehr viele Anrufe geben, weil Wasser im Keller ist, weil ein Baum auf der Straße

00:09:54: liegt, aber auch, weil vielleicht der Herzinfarkt zugeschlagen hat.

00:09:59: Nicht wegen des Sturms, sondern weil er einfach statistisch zuschlägt.

00:10:02: Uns geht es darum, dass man frühzeitig die Kapazitäten in der Leitstelle beim Call-Taking,

00:10:08: was er schön sagt, aufbaut, dass man einfach mehrere Leute an die Telefone bekommt, sehr

00:10:13: strukturiert abfragt, um eben den Herzinfarkt rauszufiltern aus dem vollgelaufenen Keller.

00:10:18: Auch natürlich ein Schicksal für Betroffene, aber das eine ist wirklich lebensbedrohlich,

00:10:23: das andere ist ein Punkt, den kann man dann eben auch abarbeiten, sukzessive.

00:10:26: Und eben auch zu lernen aufgrund der Auswirkung von Extremwetter, wo müsste ich meine Ressourcen

00:10:34: allokieren, um gegebenenfalls bei vollgelaufener Unterführung oder überschwemmten Straßen, die ein bisschen

00:10:39: tiefer liegen, die ich da nicht mehr passieren kann, eben auch Einsatzorte zu erreichen.

00:10:44: Ich rede jetzt gerade viel über Starkregen, weil das ein Punkt ist, der einem vor Augen

00:10:47: ist, man sieht natürlich die Bilder in den Nachrichten. Aber ein schleichender Prozess ist -

00:10:52: und wir freuen uns sicherlich alle wieder auf den Sommer und auf schönes Wetter, aber wenn

00:10:56: Sie wieder drei Wochen 38 bis 40 Grad haben und auch da ist die Lausitz neben dem Rheingraben

00:11:01: eines der heißesten Gebiete in Deutschland, gehen die Einsatzzahlen hoch, von Herzkreislaufbeschwerden,

00:11:07: Nierenbeschwerden, Schwangerschaftskomplikationen.

00:11:10: Das heißt, ein Blumenstrauß an möglichen gesundheitlichen Folgen und die Herausforderung für uns war

00:11:17: eben auch, es gibt eben nicht das Einsatz-Stichwort "hitzebedingte Gesundheitsfolgen", sondern

00:11:23: es gibt eben diese Punkte, die ich gerade aufgeführt habe.

00:11:25: Wenn das natürlich klar ist, wenn es an Starkregen liegt, es gibt entsprechende Millimeter

00:11:29: Wasser-Säulen, die man nachlesen kann, die man sehr, sehr viel einfacher in den Daten

00:11:33: finden kann.

00:11:34: Also auch das ist eine Herausforderung, wenn man über KI-Projekte spricht.

00:11:37: Wie komme ich an Daten, die mir helfen, meine KI zu trainieren und vor allem, wie komme

00:11:43: ich an Daten, die so standardisiert sind, dass man sie eben auch dann mal miteinander

00:11:46: verschneiden kann, um gewisse Musterzusammenhänge zu erkennen und um dann die Prognose mit

00:11:52: einer hohen Wahrscheinlichkeit für die Zukunft zu unterlegen.

00:11:55: Was ist jetzt der konkrete Vorteil von KI in einem Einsatz?

00:11:58: Könnte sich der Disponent nicht auch einfach hinsetzen, sich die Wettervorhersage anschauen

00:12:01: und sagen, ah, übermorgen ist Regen angesagt, ich setze lieber mal zwei Personen mehr ein?

00:12:05: Wir sind bei dem berühmten Bauchgefühl und das ist eine Herausforderung, die wir, glaube

00:12:10: ich, im ganzen Land haben und bei Leitstellen in Deutschland umso mehr.

00:12:14: Wir haben über 230 Leitstellen der nicht-polizeilichen Gefahrenabwehr in Deutschland, das ist fast

00:12:19: mehr als der Rest von Europa zusammen und der Punkt ist eben genau, dass viele auf das

00:12:24: Bauchgefühl vertrauen.

00:12:26: Bei der Abfrage, wo sie einen emotionalen Anrufer haben, muss man aber strukturiert

00:12:31: und objektiv vorgehen und da hilft KI einfach, weil es emotionslos ist, um es mal so zu sagen

00:12:37: und einfach Daten liefert und auf Basis von Daten Entscheidungsvorschläge unterbreitet.

00:12:41: Und natürlich bieten solche Systeme dann eben auch die Möglichkeit, nicht nur aus der

00:12:46: Region, sondern aus der ganzen Nation oder vielleicht aus ganz Europa zu lernen, denn

00:12:51: die Herausforderungen, die wir uns anschauen im Projekt, die betreffen eigentlich die

00:12:54: ganze Welt, jeder hat Hitzeperioden danach kommen Starkregen-Ereignisse und man kann dadurch eben auch schauen,

00:13:00: was bedeuten bestimmte Wettermodelle, Konstellationen eben auch für ein bestimmtes

00:13:05: Einsatzaufkommen.

00:13:06: Und es ist eine Unterstützung und trotzdem ist die Herausforderung, ich habe es gerade

00:13:10: angesprochen, 230 Leitstellen, mehrere Hersteller.

00:13:13: Das Thema Datenqualität, Datenverfügbarkeit, Standardisierung, das sind in solchen KI-Projekten

00:13:21: große Hürden, die man abarbeiten muss und dann natürlich zu schauen, dass man nicht

00:13:25: eine Lösung entwickelt hat, die nur diese eine Leitstelle und nur in folgender Konstruktion und folgendem

00:13:30: Hersteller praktisch sozusagen kompatibel ist, sondern dass man eben auch eine Skalierbarkeit

00:13:36: hat.

00:13:37: Das heißt, wir plädieren eben auch für das Thema Standardisierung und Integration

00:13:41: und offene Schnittstellen und vor allem standardisierte Schnittstellen zu anderen Einsatzleitsystem-Herstellern.

00:13:46: Bei dem Thema Emotionslosigkeit möchte ich an der Stelle nochmal einmal einhaken, weil

00:13:51: Sie eingangs erwähnt hatten, dass die fehlende Empathie der KI

00:13:54: möglicherweise eine Herausforderung ist oder ein Problem der KI

00:13:58: darstellt. Wie bringen Sie das zusammen? Wir müssen uns anschauen in welchem

00:14:03: Anwendungsfall die KI unterwegs ist. Wir reden natürlich hier bei Leitstellen,

00:14:06: Rettungskette von sicherheitsrelevanten Bereichen und jedem muss klar sein und

00:14:12: das machen wir im Projekt eben auch so, dass wir einen Entscheidungsvorschlag

00:14:16: machen. Die KI trifft nicht die Entscheidung, Leute aus der Bereitschaft

00:14:21: zurückzuholen oder Anrufe in die Warteschleife zu schicken oder Rettungsmittel

00:14:26: rauszuschicken. Das ist glaube ich eine sehr, sehr wichtige, wichtige

00:14:29: Entscheidung, die wir gefällt haben. Wenn Sie aber über Einsatz von KI im Bereich

00:14:33: Medizin, Diagnose sprechen, dann ist die Frage, kann denn sozusagen die Anamnese

00:14:40: mit einem KI-Avatar das Gespräch mit einem richtigen Mediziner übernehmen?

00:14:45: Ich glaube, da muss man noch Erfahrungen sammeln. Bei uns ist es so, wir werden immer

00:14:50: in unklare Situationen kommen und vor allem jemand muss die Verantwortung übernehmen.

00:14:54: Jetzt bin ich kein Jurist, aber was passiert, wenn die KI eine Entscheidung trifft, die

00:14:59: dann eben zu sozusagen zu einem Menschenlebenverlust führt? Das sind

00:15:03: Punkte, die man sich natürlich anschauen muss und zum anderen eben auch

00:15:07: unklare Situationen, dieses Bauchgefühl und das ist genau das Spannungsfeld.

00:15:11: Deshalb tasten wir uns mit diesen Projekten, wie wir es machen, langsam vor.

00:15:16: Wichtig für uns ist natürlich, dass wir in unserem AIRCIS-Projekt an die

00:15:20: Schwelle kommen, dass das System eben auch, in dem Fall kommerziell eingesetzt

00:15:25: werden kann und wir nicht wieder ein Forschungsprojekt haben, was nach

00:15:29: Projektende in der Schublade verschwindet und auch da muss man

00:15:33: natürlich dann vielleicht Feedback-Workshops und andere Elemente mit einbauen,

00:15:37: um zu schauen, wie hat sich jetzt die KI, das System im Schichtbetrieb geschlagen,

00:15:42: um es mal so zu sagen. KI lässt sich also nicht ohne den Menschen denken und dabei

00:15:46: kommen ethische Fragestellungen auf. Die wollen wir gleich im anschließenden

00:15:50: Interview noch weiter konkretisieren. Herr von Beesten, ich würde Ihnen abschließen

00:15:54: gerne noch ein paar schnelle Fragen stellen und würde Sie bitten, die innerhalb

00:15:58: von ein bis zwei Setzen ganz kurz zu beantworten.

00:16:01: Die erste Frage, wie wird KI aktuell in der Mobilität genutzt? Noch zu wenig,

00:16:08: aber es ist auf einem guten Weg. Was sind die drei größten technischen Herausforderungen?

00:16:13: Standardisierung, Transparenz bei der Entwicklung und das Thema Vertrauen des

00:16:18: Menschen, der vor der KI sitzt. Welche Anwendungsmöglichkeiten sind noch

00:16:22: ungenutzt? Da sind der Fantasie, glaube ich, keine Grenzen gesetzt.

00:16:33: Nachdem wir uns gemeinsam Einsatzmöglichkeiten von KI für die

00:16:37: effiziente Ressourcenplanung im Rettungsdienst angeschaut haben, soll es

00:16:41: jetzt um ethische und gesellschaftliche Fragen von KI-Nutzung und die

00:16:45: Notwendigkeit menschlicher Kontrolle gehen. Dr. Benjamin Lange leitet eine

00:16:50: Nachwuchsgruppe in der Ethik der KI und dem Maschinellen Lernen an der Ludwig

00:16:54: Maximilians Universität München und dem Munich Center for Machine Learning.

00:16:59: Ergänzend zu seinen angewandten Forschungsschwerpunkten ist Benjamin Lange,

00:17:03: Ethikberater für Unternehmen und Organisation und berät zu Themen im

00:17:07: Bereich Corporate Ethics and Compliance, digitaler Ethik sowie zur Ethik der KI

00:17:12: und Innovation. Herr Lange, schön, dass Sie da sind.

00:17:15: Danke für die Einladung. Herr von Besten hat gerade schon angesprochen,

00:17:20: dass es einige Einschränkungen bei der Nutzung von KI gibt. Keine Empathie,

00:17:25: kein Bauchgefühl, keine Verantwortung. Welche ethischen Fragen muss man denn beim

00:17:30: Einsatz von künstlicher Intelligenz in der Mobilität berücksichtigen?

00:17:34: Tatsächlich glaube ich, gibt es dann eine Reihe von Fragen primär im

00:17:39: Mobilitätskontext. Also eine ist tatsächlich, wie vielleicht auch der

00:17:44: Herr von Beesten angesprochen hat, die Frage nach der Verantwortung. Also wer haftet,

00:17:49: wenn einer KI eine falsche Entscheidung trifft? Ist es der Hersteller, ist es der

00:17:53: Betreiber, ist es der Nutzer? Aber darüber hinaus geht es meiner Ansicht nach auch

00:17:58: um Transparenz in der Entscheidungslogik oder auch um Fairness. Also zum Beispiel

00:18:04: beim Zugang zu KI-gestützten Diensten oder bei der Risikoverteilung. Was

00:18:07: bedeutet das? Also verzerrte Trainingsdaten können diskriminierende

00:18:11: Muster zementieren und das muss auch bei unserem Einsatz von KI aktiv

00:18:15: verhindert werden. Kontrolle heißt zum Beispiel auch, dass wir Erkennbarkeit

00:18:19: für Nutzer schaffen, wenn und wann KI tatsächlich im Spiel ist. Also wann

00:18:24: beurteilen KI-gesteuerte Systeme, ein algorithmisches System, in diesem Fall

00:18:28: ein Entscheidungskontext, das sollte zum Beispiel dargelegt werden. Das sind drei

00:18:32: Punkte, die mir dazu kommen. Und würden Sie sagen, dass die menschliche, ich sage

00:18:37: jetzt mal, Überwachung von KI notwendig ist und wenn ja, warum? Genau, also ich

00:18:43: glaube, die menschliche Kontrolle bleibt und ist notwendig, weil KI nicht in

00:18:49: allen Kontexten die momentanen technischen Möglichkeiten, die wir haben,

00:18:52: interpretieren kann. Also einerseits nicht bei ethischen Dilemmata oder in

00:18:56: solchen Fällen, wo moralische Urteilskraft gefragt ist, das geht nicht.

00:18:59: Oder auch bei komplett unvorhergesehenen Situationen. Also man kann

00:19:03: sich vorstellen, sicherheitskritische Systeme, wo also, im autonomen Fahren,

00:19:08: wo also etwas passiert, worauf das System nicht trainiert worden ist, da muss

00:19:11: der Mensch eingreifen, das muss auch so mitgedacht werden. Das heißt, das

00:19:14: schaltet sich dann das System ab und da muss klar sein, in dem Fall entscheidet

00:19:18: und greift der Mensch wieder ein. Das ist wichtig und deswegen brauchen wir auch

00:19:22: die menschliche Kontrolle. An der Stelle einmal das Stichwort human in the loop,

00:19:27: das ist vorhin schon kurz aufgekommen. Was heißt das eigentlich genau? Ja,

00:19:32: genau, also wörtlich übersetzt sowas wie der Mensch im Bilde oder so tatsächlich.

00:19:36: Also human in the loop bedeutet, dass Menschen hinsichtlich dem Einsatz oder

00:19:40: der Entwicklung von KI bewusst als aktive Kontroll- oder Eingriffsinstanz in

00:19:46: diese automatisierten Prozesse eingebunden sind. Das kann sein bevor, während oder

00:19:51: nach einer Entscheidung der KI tatsächlich. Also das bedeutet, wenn wir

00:19:55: sogar schon das System trainieren, überwachen Menschen und helfen tatsächlich

00:19:59: die Datensätze so aufzuarbeiten, dass sie unseren Vorstellungen entsprechen.

00:20:04: Man unterscheidet bei human in the loop noch zwischen in the loop und on the

00:20:08: loop. On the loop ist sowas wie, ich pass nur auf, also eine überwachende Funktion.

00:20:11: In the loop ist wirklich mitten drin, also vielleicht schon beim Trainieren mehr

00:20:14: kollaborativ oder tatsächlich out of the loop, was dann vielleicht so was ist.

00:20:18: Also der Mensch, der ist gar nicht mehr involviert, das sind also dann voll

00:20:21: autonome Systeme, die tatsächlich greifen. Warum brauchen wir das? In einer

00:20:26: Hinsicht ist die Idee dahinter, dass der Mensch wie so ein moralischer Kompass

00:20:30: fungieren kann, als Interpret von unerwarteten Situationen und tatsächlich

00:20:35: auch als Sicherheitsnetz gegen Systemfehler, wenn gerade mal was

00:20:38: unvorhergesehenes passiert. Das heißt, der Mensch löst in dem Moment quasi das

00:20:43: Problem des Unvorhergesehenen bzw. der Punkte, die der KI vorher, ich sage es mal,

00:20:48: nicht beigebracht wurden, wo die KI keine Entscheidung treffen kann.

00:20:52: Genau, das kann man sich so vorstellen. Und wie läuft das normalerweise ab?

00:20:56: Sie haben ja jetzt schon von in the loop und on the loop gesprochen.

00:20:59: Ist das geplant oder passiert das in bestimmten Situationen?

00:21:04: Also kann das auch sein, dass quasi die KI meldet: ich schaffe das nicht.

00:21:08: Ich brauche dich jetzt, in Richtung des Menschen. Wie läuft das ab?

00:21:11: Genau, das ist also vollkommen richtig. Man sollte sagen, es gibt ganz viele

00:21:15: verschiedene Anwendungen. Also wir haben gerade schon das Beispiel vom autonomen

00:21:18: Fahren gehabt, dann gibt es, weiß ich nicht, vielleicht die Verkehrsoptimierung oder

00:21:22: Ampelprozesse, die sind auch vielleicht KI gesteuert, Stichwort Smart Cities.

00:21:25: Inwiefern human in the loop, on the loop eingesetzt wird, wird immer auch auf

00:21:29: den sogenannten Fall, das Use Case, tatsächlich ankommen. Wie muss der

00:21:33: Mensch in dem Fall in dieses System eingespeist sein? In den meisten Fällen

00:21:37: ist es natürlich geplant. Also auch wenn das System sich abschalten wird, muss klar

00:21:41: sein für den Überwacher, für den Menschen: es kann vorkommen, dass es sich

00:21:44: abschaltet. Gutes Beispiel ist, wieder das Autonome Fahren.

00:21:47: Da ist also, vor allem in Deutschland haben wir ja gute und auch stringente, was

00:21:51: ich für richtig halte, Regeln dazu. Das heißt, der Mensch überwacht das

00:21:54: autonome System und es schaltet sich auch ab. Und das ist zwar geplant, aber

00:21:58: passiert dann ad hoc, wenn zum Beispiel, weiß ich nicht, der Sensor fällt aus oder

00:22:02: irgendwas. Das sind so Beispiele, wie man sich das vorstellen kann.

00:22:04: Und wenn wir uns jetzt die Konsequenzen des Ganzen noch ein bisschen stärker

00:22:08: angucken, also sowohl vielleicht, wenn wir uns KI in der Mobilität angucken, aber

00:22:14: auch dieses Konzept des Human in the Loop. Was hat das für Konsequenzen für

00:22:19: Mobilität in Deutschland? Also es wird vielleicht auch Konsequenzen für die

00:22:24: Arbeitswelt haben, speziell. Also es wird aus meiner Sicht Arbeitsplätze

00:22:28: schaffen und dabei neue Anforderungen an unsere Qualifikationen, Aufmerksamkeit

00:22:34: und die Menschen, die dann im Loop sein werden, tatsächlich stellen. Man muss sich das

00:22:36: so vorstellen, wir brauchen in Zukunft Mitarbeitende, einerseits die technischen

00:22:41: Fähigkeiten, wir müssen also verstehen, was für eine KI wird hier gerade im

00:22:44: Mobilitätssektor eingesetzt, warum, wie funktioniert die. Und

00:22:48: gleichzeitig braucht dann der Human Operator, der Aufseher, was auch immer die

00:22:52: Rolle ist, soziotechnisches, also ethisches Verständnis, abzuwägen,

00:22:57: Entscheidungen zu treffen, die Urteilskraft zu haben. Und das sind

00:22:59: tatsächlich gerade neue Anforderungsbereiche für unsere Kompetenzen,

00:23:03: wo also Bedarf ist. Und das wird sicherlich auch die Arbeitswelt, unseren

00:23:06: Umgang tatsächlich über die technischen Dinge hinweg formen.

00:23:10: Das war auch so ein Punkt, den wir schon mal angesprochen hatten in verschiedenen

00:23:13: Kontexten, wenn es darum geht, dass man ja Angst davor hat, dass Autonomes Fahren

00:23:19: jetzt, wenn man sich Shuttles zum Beispiel anguckt, dass das ja Arbeitsplätze

00:23:24: wegnehmen wird, weil der Busfahrer oder der Taxifahrer nicht mehr gebraucht

00:23:28: wird. Und wir hatten das schon argumentiert, so ein bisschen, dass man dafür aber

00:23:31: vielleicht die Person braucht, die mit in dem Bus drin sitzt und den Menschen ein

00:23:35: Sicherheitsgefühl gibt, weil die irgendwie wissen, ich bin jetzt nicht alleine hier

00:23:39: mit anderen Leuten, das geht ja in eine ähnliche Richtung.

00:23:42: Genau, das würde ich auch so unterschreiben, also ich würde eher

00:23:45: vorsichtig optimistisch, es wird nicht einfach einen Verlust von ganz vielen

00:23:47: Arbeitsplätzen geben, sicherlich einige werden sich ändern, aber es werden eben

00:23:50: auch neue geschaffen und geschaffen werden müssen, wo dann zum Beispiel, wenn man

00:23:54: ein komplett selbstfahrendes Robotaxi hat, Stichwort, weiß ich, Vamo in den USA,

00:23:59: in denen also dann eigentlich kein Fahrer mehr drin sitzt, aber dann gibt es

00:24:02: natürlich immer noch Human Operator, Leute, die das überwachen. Das heißt, das

00:24:06: fordert dann wieder andere Kompetenzen. Ich glaube, so kann man sich das

00:24:08: vorsichtig optimistisch vorstellen. Vorsichtig optimistisch, das ist an der

00:24:12: Stelle ein gutes Stichwort. Wenn wir mal versuchen, in die Glaskugel zu schauen,

00:24:17: entwickeln sich wohl Technologie, aber auch Regulierung und ethische Fragen

00:24:22: jetzt so weiter, dass der Mensch vielleicht irgendwann in the Loop oder

00:24:27: on the Loop doch nicht mehr gebraucht wird oder können gewisse Voraussetzungen

00:24:31: nie erfüllt sein. Ja, ich finde, das ist eine spannende Frage. Also ich glaube,

00:24:36: wenn Sie mich jetzt als Ethiker fragen, langfristig wird der Mensch nicht in jedem System noch

00:24:42: physisch präsent sein. Der Mensch wird aber aus meiner Sicht auf einer tieferen

00:24:46: Ebene immer nötig bleiben, entweder als Gestalter der Rahmenbedingungen oder als

00:24:52: ethische Kontrollinstanz oder tatsächlich als Garant für Verantwortung.

00:24:55: Das heißt, technisch kann vieles autonom laufen, aber die moralische

00:24:58: Verantwortung wird immer menschlich bleiben. Und ich glaube, dann hilft uns

00:25:02: das so ein bisschen, diese Frage vielleicht auch umzuschichten. Die entscheidende

00:25:05: Frage wird dann aus meiner Sicht nicht sein, ob der Mensch eingebunden ist,

00:25:09: sondern eher, wie er eingebunden sein wird. Es gibt dann manche Systeme, wo

00:25:12: vielleicht, weiß ich nicht, sicherheitskritische Dinge auf dem Spiel stehen.

00:25:15: Da muss eine stärkere Einbindung geschehen, dann gibt es vielleicht Bereiche, die

00:25:18: nicht so schwerwiegend sind, wo man eine leichte Aufsicht hat, aber die Frage

00:25:21: wird immer nach dem Wie sein, aus meiner Sicht. Und gibt es da Beispiele für,

00:25:25: für beide Fälle, also für dieses "Okay, da wird der Mensch vielleicht nicht mehr so

00:25:28: stark drin involviert sein und da vielleicht schon?"

00:25:32: Genau, ich würde vielleicht nochmal das Autonome Fahren tatsächlich anführen.

00:25:35: Das ist so ein Beispiel, das funktioniert super. Ich meine, wir bewegen uns auf den

00:25:38: verschiedenen Stufen, die es dazu gibt, stetig voran und das ist wirklich top.

00:25:41: Da wird der Fahrer immer noch in der Lage sein müssen, einzugreifen, aber das

00:25:45: funktioniert klasse. Aber ich stelle mir jetzt solche Dinge vielleicht etwas

00:25:48: futuristischer vor wie, weiß ich nicht, Smart Cities in dem Zukunft KI, unseren

00:25:52: Traffic, weiß ich nicht, unseren Verkehr optimieren wird durch, weiß ich nicht,

00:25:56: multiple Analysen des Live-Verkehrs irgendwie bei uns hier in Essen.

00:26:01: Da wird es wahrscheinlich sein, dass man da genauer drauf schauen muss, das ist

00:26:04: natürlich auch sicherheitskritischer, weil da kann schnell mal ein Unfall passieren,

00:26:07: immer wenn Menschenleben auf dem Spiel stehen, da muss ein Mensch mehr und

00:26:09: stärker eingebunden sein.

00:26:12: Dankeschön. Ich würde Ihnen zum Abschluss gerne noch ein paar kurze Fragen stellen.

00:26:17: Und meine Bitte wäre, dass Sie die in ein bis zwei Sätzen beantworten.

00:26:21: Was sind die drei größten ethischen Herausforderungen?

00:26:24: Die nach der Verantwortung, der Transparenz und auch der Fairness in der KI.

00:26:30: Und welche gesellschaftlichen Herausforderungen sind mit der Nutzung von KI für

00:26:34: Mobilität verbunden?

00:26:36: Das Garantieren der Sicherheit für alle Nutzer und auch das Schaffen von neuen

00:26:40: Fähigkeiten.

00:26:41: Und was wird durch KI in der Mobilität für die Gesellschaft verbessert?

00:26:45: Der allgemeine Zugang zu allen mobilrelevanten Aktivitäten und

00:26:50: das mehr sicher.

00:26:51: Einen ganz herzlichen Dank an Joachim von Beesten, von der Björn-Steiger-Stiftung

00:26:57: und an Dr. Benjamin Lange von der LMU München für die Projekteinblicke und

00:27:02: die ethischen Diskussion.

00:27:04: Euch, liebe Hörerinnen und Hörer, danke fürs Hören und bis bald.

00:27:09: Schön, dass ihr heute dabei wart.

00:27:14: Wenn es euch gefallen hat, abonniert uns gerne und teilt den Podcast.

00:27:17: Bei Fragen und Anregungen schreibt uns an mpact@tuv.com.

00:27:23: [Musik]

00:27:43: [MUSIK]

00:27:45:

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.