Künstliche Intelligenz in der Mobilität: Dein Freund und Helfer?
Shownotes
Wie wird Künstliche Intelligenz (KI) heute schon in der Mobilität genutzt und welche Zukunftsperspektiven gibt es? Welche ethischen Herausforderungen gibt es für den Einsatz von KI? Und was bedeutet eigentlich Human-in-the-Loop?
In der 16. mCAST-Folge sprechen wir mit unseren Gästen über den Einsatz von Künstlicher Intelligenz in der Mobilität. Joachim von Beesten von der Björn-Steiger-Stiftung erklärt anhand des mFUND-Projekts AIRCIS, wo KI bereits in der Mobilität genutzt wird und welche Chancen sie in der Notfallhilfe bietet. Dr. Benjamin Lange von der LMU München und dem Munich Center for Machine Learning (MCML) erläutert die Rolle des Menschen für die Nutzung von KI: Es geht um Fragen der Verantwortung, Kontrolle und Ethik, die zum Teil (noch) vom Menschen beantwortet werden müssen. Wir besprechen, was Human-in-the-Loop bedeutet – und wie sich das Konzept in Zukunft weiterentwickeln wird.
Unsere Gäste sind sich einig: Künstliche Intelligenz bietet für die Mobilität viele Chancen, bringt aber auch noch offene Fragen mit sich.
Zu Gast im Podcast
Joachim von Beesten ist seit sechs Jahren für die Björn Steiger Stiftung tätig, die eine Verbesserung der Notfallhilfe anstrebt. Bekannte Meilensteine sind die Einführung der bundesweiten Notrufnummern 112/110 und der zivilen Luftrettung. Herr von Beesten verantwortet den Geschäftsbereich Forschung, Entwicklung und Sonderfahrzeuge und leitet dort Forschungsprojekte, die eine Verbesserung der Notfallhilfe durch Technologien wie Drohnen, Digitale Zwillinge und Künstliche Intelligenz erreichen möchten.
Dr. Benjamin Lange leitet eine Nachwuchsgruppe in der Ethik der KI und maschinellem Lernen an der Ludwig-Maximilians-Universität München (LMU) und dem Munich Center for Machine Learning (MCML). Ergänzend ist Benjamin Lange Ethikberater für Unternehmen und Organisationen und berät zu Themen im Bereich Corporate Ethics and Compliance, Corporate Social Responsiblity (CSR), Corporate Digital Responsibility (CDR), Digitaler Ethik sowie zur Ethik der KI und Innovation.
Weiterführende Informationen
- AIRCIS – Artificial Intelligence in Rescue Chains: Stärkung der Rettungskette unter Extremwettereinflüssen durch den Einsatz von Künstlicher Intelligenz am Beispiel Lausitz
- Munich Center for Machine Learning (MCML)
- CDU, CSU und SPD. Verantwortung für Deutschland. Koalitionsvertrag zwischen CDU, CSU und SPD. 21. Legislaturperiode
- MCAST Folge 3: Günstige Intelligenz? Effizienzperspektiven von KI im Innovationsprozess (17. April 2024)
Transkript anzeigen
00:00:00: mCAST, der Innovations-Podcast. Wie wir morgen unterwegs sind.
00:00:09: Hallo liebe Zuhörerinnen und Zuhörer und willkommen zu einer Folge von mCAST.
00:00:16: Ich bin Johanna Drumann - und ich bin Felix Schneider.
00:00:20: Hallo.
00:00:21: Gemeinsam mit unseren Gästen schauen wir uns aktuelle Trends in der Mobilität an und
00:00:24: fragen nach: was steckt hinter den Buzzwords?
00:00:26: Was ist notwendig, um dahin zu kommen - und wollen wir das als Gesellschaft eigentlich
00:00:30: wirklich?
00:00:31: Und das wichtigste technologische Buzzword momentan auch über die Mobilität hinaus
00:00:37: ist wohl KI, Künstliche Intelligenz.
00:00:39: Spätestens mit ChatGPT ist das ja definitiv mehr als ein Hype und gerade dabei, unsere
00:00:45: komplette Gesellschaft zu verändern.
00:00:47: Wer uns jetzt schon länger verfolgt, hat sich vielleicht gefragt, noch eine KI-Folge?
00:00:51: Wir haben uns nämlich im April 2024 schon mal über Künstliche Intelligenz unterhalten.
00:00:56: Hört da gerne mal rein, wir verlinken die Folge in den Show-Notes.
00:01:00: Wir machen aber trotzdem noch eine zweite Folge zum Thema, denn Künstliche Intelligenz
00:01:05: ist in aller Munde.
00:01:06: Zum Beispiel im aktuellen Koalitionsvertrag wird KI ganz besonders hervorgehoben.
00:01:10: Da steht, dass Deutschland Spitzenstandort für digitale Zukunftstechnologien sein soll,
00:01:15: inklusive KI.
00:01:16: Da werden vor allem die Chancen von KI in allen Bereichen unterstrichen, die uns so
00:01:21: betreffen, also Arbeitswelt, Landwirtschaft, Steuern und Sicherheit.
00:01:25: Aber wie sieht es denn eigentlich für den Bereich Mobilität aus?
00:01:28: Diese Frage wollen wir uns heute näher anschauen.
00:01:31: Genau, während es in Folge 3, also in der Folge vom letzten Jahr, um den Einsatz von KI im
00:01:37: Innovationsprozess ging, wollen wir heute über das Thema Einsatzpotenziale von KI in
00:01:43: der Mobilität ganz grundsätzlich sprechen und über aktuelle Herausforderungen.
00:01:47: Außerdem sprechen wir über Human in the Loop, also über die Frage, behält der Mensch die
00:01:53: Kontrolle und wenn nicht, wer trägt dann die Verantwortung für Künstliche Intelligenz?
00:01:58: Doch zuallererst schauen wir auf die Einsatzpotenziale von KI in der Mobilität.
00:02:04: Dafür haben wir Joachim von Beesten von der Björn-Steiger-Stiftung eingeladen, der online
00:02:08: zu uns ins Studie geschaltet ist.
00:02:10: Mit seinem mFUND-Projetz AIRCIS erarbeitet er die Nutzung von Künstlicher Intelligenz
00:02:14: in Rettungsketten.
00:02:16: Und danach sprechen wir mit Dr. Benjamin Lange heute ausnahmsweise mal live aus unserem
00:02:21: Büro in Essen über Human in the Loop und ethische Fragen von KI in der Mobilität.
00:02:26: Viel Spaß mit der heutigen Folge.
00:02:29: Joachim von Beesten ist seit sechs Jahren für die Björn-Steiger-Stiftung tätig, die
00:02:40: eine Verbesserung der Notfallhilfe erreichen will.
00:02:43: Dort leitet er den Geschäftsbereich Forschung, Entwicklung und Sonderfahrzeuge.
00:02:48: Die Forschungsprojekte der Stiftung untersuchen die Verbesserung von Notfallhilfe durch Technologien
00:02:55: wie Drohnen, digitale Zwillinge und Künstliche Intelligenz.
00:02:59: Herr von Beesten, schön, dass Sie da sind.
00:03:00: Ich grüße Sie, Herr Schneider, hallo.
00:03:04: Herr von Beesten, wenn Sie Ihrer Nachbarin, die jetzt kein Smartphone hat, erklären wollten,
00:03:09: was Künstliche Intelligenz ist, wie würden Sie das machen wollen?
00:03:12: Zum einen habe ich nur Nachbarinnen, die schon in der Gegenwart angekommen sind.
00:03:19: Zum anderen, vielleicht muss man so unterscheiden für den Zuhörer, dass wir von verschiedenen
00:03:24: Qualitäten oder auch Entwicklungsstufen von Künstlicher Intelligenz sprechen können.
00:03:28: Wenn man so ein bisschen historisch schaut, dann hat KI vielleicht angefangen mit dem
00:03:33: Thema regelbasierte Systeme und wir sind ja hier in einem Podcast, der vom BMDV initiiert
00:03:38: wurde.
00:03:39: Wenn man mal in die Mobilität schaut, dann kennt jeder sicherlich, der mit dem Auto unterwegs
00:03:44: ist,
00:03:45: die Ampelsteuerungen, das waren früher ganz traditionelle, regelbasierte Systeme, die
00:03:50: montags bis freitags, acht bis zehn Uhr eine andere Ampelphase gezeigt haben als zu anderen
00:03:55: Uhrzeiten und Tageszeiten.
00:03:57: Das war die alte Welt, die neue Welt, mit der wir tagtäglich konfrontiert sind, ist
00:04:03: dann eher das Maschinelle Lernen.
00:04:04: Das geht etwas tiefer.
00:04:06: Hier wird die Künstliche Intelligenz trainiert.
00:04:09: Und es sieht so aus, dass man dann wieder bezogen auf die Mobilität zum einen intelligente
00:04:15: Ampelsteuerung hat.
00:04:16: Das heißt, wetteabhängig, feiertagsabhängig, ist eine Messe in der Stadt, wie sind die
00:04:21: Witterungsbedingungen oder eben auch die intelligente Navigation.
00:04:25: Das heißt, ich habe zu einem Ziel eingegeben, aber es werden eben Verkehrsbehältnisse,
00:04:30: Staus, Baustellen entsprechend berücksichtigt.
00:04:33: Und das, was glaube ich jeder von uns wahrscheinlich schon tagtäglich nutzt, ChatGPT
00:04:38: ist da sicherlich ein gutes Beispiel, sind dann die neuronalen Netze, wo wirklich tief
00:04:44: gelernt wird und wirklich mit dem Gehirn wirklich Erfahrungen verarbeitet werden, zu Entscheidungen
00:04:50: zusammengeführt werden.
00:04:51: Bei den modernen Fahrzeugen auch das Thema Sprachsteuerung, dass nicht nur die Sprache
00:04:56: erkannt wird, sondern Syntax eben auch verarbeitet wird.
00:05:01: Also in modernen Elektrofahrzeugen "Navigiere mich zum nächsten Schnelllader".
00:05:06: Das heißt, die Software an Bord muss genau diese Information verarbeiten für eine Navigation,
00:05:13: für eine Abstufung eben auch der Ladeeinrichtung, und mich da hinführen.
00:05:17: Das für die Nachbarin, wie Sie angesprochen haben, also eine Abstufung an Evolution bei
00:05:22: der Entwicklung und auch einen Einzug in unseren Alltag, den wir tagtäglich nutzen oder den
00:05:28: wir tagtäglich eben auch begegnen.
00:05:29: Sie hatten vorhin verschiedene Punkte angesprochen, die die KI kann.
00:05:33: Können Sie einmal deutlich machen, was kann KI heute schon und was kann KI heute noch
00:05:39: nicht - in Klammern noch nicht?
00:05:42: Das ist eine gute Frage, denn die Forschung schreitet voran und man muss das Thema auch
00:05:48: ein bisschen breiter fassen, denn wir haben in unserem Projekt festgestellt, KI kann immer
00:05:53: das, was der Mensch ihr antrainiert, auf einer Basis von Netzwerken von Software, die ein
00:06:00: anderer Mensch oder vielleicht eine andere KI entwickelt hat.
00:06:02: So dass ich natürlich in der Art und Weise, wie ich Daten auswähle oder auch Daten, man
00:06:08: sagt so schön, labeln.
00:06:10: Das heißt ich sage der KI, das ist ein rotes Auto, das ist ein grünes Auto, das ist ein
00:06:15: Kind, das ein mögliches Verhalten von einem Verkehrsteilnehmer.
00:06:19: Genau auf Basis meines Inputs lernt die KI.
00:06:23: Das heißt, was wir als Menschen Lebenserfahrung nennen, was wir selbst erlebt haben in Situationen,
00:06:28: wo auch das Bauchgefühl mitentschieden hat.
00:06:31: Da stößt KI an seine Grenzen.
00:06:33: Von daher meine persönliche Meinung bei diesem Thema und gerade wenn es auch um Empathie
00:06:37: geht, ich kann zwar objektiv Fragen stellen, in vielen Situationen sehr, sehr wichtig.
00:06:42: Andererseits stößt da KI einfach an die Grenzen und ich gebe der KI auch so ein bisschen so
00:06:47: ein Bias mit, indem ich natürlich einen Schwerpunkt lege, entweder als Entwickler oder eben auch
00:06:52: als sozusagen Fütterer mit Daten, in welche Richtung eine KI vielleicht eine gewisse Ausprägung
00:07:00: hat und wo man vielleicht einen gewissen blinden Fleck hat, um in diesem Bild mal zu bleiben.
00:07:04: Sie hatten jetzt schon unterschiedliche Schwachpunkte von KI aktuell angesprochen.
00:07:10: Das Thema Empathie, das Thema Bias, da würde ich später gerne noch mal drauf eingehen.
00:07:15: Aber erstmal möchte ich von Ihnen wissen, Sie arbeiten in dem Projekt AIRCIS.
00:07:21: Welches Problem löst Ihr Projekt?
00:07:24: AIRCIS ist zum einen, es ist ja im mFUND üblich, sich sozusagen eine Buchstabenabkürzung
00:07:30: zu überlegen.
00:07:31: In dem Fall steht es für Artificial Intelligence in Rescue Chains, also wie kann Künstliche
00:07:35: Intelligenz die Rettungskette verbessern?
00:07:38: Und was wir uns dort anschauen ist eine Weiterentwicklung von einer Problemstellung.
00:07:43: Wir haben ja vorhin über Anwendungsfälle gesprochen von KI, von neuronalen Netzen.
00:07:47: Natürlich gibt es schon Lösungen im Polizeiumfeld, wo man in bestimmten Bezirken zu bestimmten
00:07:54: Jahreszeiten, zu bestimmten Uhrzeiten verstärkt Patrouille fährt, weil die Wahrscheinlichkeit
00:07:58: für Hauseinbrüche sehr groß ist.
00:08:00: Ähnliches gibt es im Rettungsdienst, bei dem man eben, wenn Kräfte in einem Einsatz gebunden
00:08:05: sind, andere Kräfte intelligent verlagert, um gewisse Hilfsfristen einhalten zu können.
00:08:11: Wir gehen einen Schritt weiter und wir nehmen Rücksicht auf das Thema Extremwetter-Auswirkungen.
00:08:17: Und was wir machen ist, dass wir neben einem digitalen Zwilling für die Rettungsmittel,
00:08:23: wie komme ich von A nach B, wenn bei B ein Einsatz ist, welche Rettungsmittel schicke ich hin.
00:08:28: Das sind die Punkte, die einfach in einer Ausrückordnung drinstehen,
00:08:31: schauen wir uns eben auch an, welche Wetterprognosen vom deutschen Wetterdienst gibt es und welchen
00:08:37: Einfluss wird das auf Basis der Analyse der historischen Daten der Leitstellen, welchen
00:08:44: Einfluss wird das haben auf das Einsatzgeschehen, zum einen auf die Anzahl der Anrufe in der
00:08:49: Leitstelle und zum anderen,
00:08:50: wie muss ich frühzeitig Kräfte verlagern, um zum Beispiel durch Starkregen blockierte
00:08:57: Unterführungen oder Straßen, die ich dann nicht mehr passieren kann, in meiner Navigation
00:09:03: zur Einhaltung der Hilfsfrist dann eben mit einzukalkulieren.
00:09:06: Ich hatte eingangs schon erwähnt, dass Sie bei der Björn Steigerstiftung tätig sind,
00:09:10: die die Verbesserung der Notfallhilfe anstrebt.
00:09:12: Welches Problem existiert denn momentan bei der Ressourcenplanung in der Notfallhilfe?
00:09:17: Das würde Stoff für einen eigenen Podcast geben.
00:09:19: Zum einen gibt es natürlich auch da einen Fachkräftemangel.
00:09:21: Zum anderen hat man natürlich die Herausforderung, dass sehr viele Einsätze von Rettungswagen
00:09:27: oder auch Notärzten praktisch betreut werden, die eigentlich gar nicht diese Qualität an
00:09:31: Fachkräften vor Ort benötigen würden, sondern da müsste es andere Hilfe geben.
00:09:36: Was wir hier aber sehen ist, natürlich ist das Herz der Rettungskette die Leitstelle.
00:09:42: Dort trifft ja der Notruf auf und natürlich wird es bei einem Sturm oder Starkregenereignis
00:09:49: auch sehr, sehr viele Anrufe geben, weil Wasser im Keller ist, weil ein Baum auf der Straße
00:09:54: liegt, aber auch, weil vielleicht der Herzinfarkt zugeschlagen hat.
00:09:59: Nicht wegen des Sturms, sondern weil er einfach statistisch zuschlägt.
00:10:02: Uns geht es darum, dass man frühzeitig die Kapazitäten in der Leitstelle beim Call-Taking,
00:10:08: was er schön sagt, aufbaut, dass man einfach mehrere Leute an die Telefone bekommt, sehr
00:10:13: strukturiert abfragt, um eben den Herzinfarkt rauszufiltern aus dem vollgelaufenen Keller.
00:10:18: Auch natürlich ein Schicksal für Betroffene, aber das eine ist wirklich lebensbedrohlich,
00:10:23: das andere ist ein Punkt, den kann man dann eben auch abarbeiten, sukzessive.
00:10:26: Und eben auch zu lernen aufgrund der Auswirkung von Extremwetter, wo müsste ich meine Ressourcen
00:10:34: allokieren, um gegebenenfalls bei vollgelaufener Unterführung oder überschwemmten Straßen, die ein bisschen
00:10:39: tiefer liegen, die ich da nicht mehr passieren kann, eben auch Einsatzorte zu erreichen.
00:10:44: Ich rede jetzt gerade viel über Starkregen, weil das ein Punkt ist, der einem vor Augen
00:10:47: ist, man sieht natürlich die Bilder in den Nachrichten. Aber ein schleichender Prozess ist -
00:10:52: und wir freuen uns sicherlich alle wieder auf den Sommer und auf schönes Wetter, aber wenn
00:10:56: Sie wieder drei Wochen 38 bis 40 Grad haben und auch da ist die Lausitz neben dem Rheingraben
00:11:01: eines der heißesten Gebiete in Deutschland, gehen die Einsatzzahlen hoch, von Herzkreislaufbeschwerden,
00:11:07: Nierenbeschwerden, Schwangerschaftskomplikationen.
00:11:10: Das heißt, ein Blumenstrauß an möglichen gesundheitlichen Folgen und die Herausforderung für uns war
00:11:17: eben auch, es gibt eben nicht das Einsatz-Stichwort "hitzebedingte Gesundheitsfolgen", sondern
00:11:23: es gibt eben diese Punkte, die ich gerade aufgeführt habe.
00:11:25: Wenn das natürlich klar ist, wenn es an Starkregen liegt, es gibt entsprechende Millimeter
00:11:29: Wasser-Säulen, die man nachlesen kann, die man sehr, sehr viel einfacher in den Daten
00:11:33: finden kann.
00:11:34: Also auch das ist eine Herausforderung, wenn man über KI-Projekte spricht.
00:11:37: Wie komme ich an Daten, die mir helfen, meine KI zu trainieren und vor allem, wie komme
00:11:43: ich an Daten, die so standardisiert sind, dass man sie eben auch dann mal miteinander
00:11:46: verschneiden kann, um gewisse Musterzusammenhänge zu erkennen und um dann die Prognose mit
00:11:52: einer hohen Wahrscheinlichkeit für die Zukunft zu unterlegen.
00:11:55: Was ist jetzt der konkrete Vorteil von KI in einem Einsatz?
00:11:58: Könnte sich der Disponent nicht auch einfach hinsetzen, sich die Wettervorhersage anschauen
00:12:01: und sagen, ah, übermorgen ist Regen angesagt, ich setze lieber mal zwei Personen mehr ein?
00:12:05: Wir sind bei dem berühmten Bauchgefühl und das ist eine Herausforderung, die wir, glaube
00:12:10: ich, im ganzen Land haben und bei Leitstellen in Deutschland umso mehr.
00:12:14: Wir haben über 230 Leitstellen der nicht-polizeilichen Gefahrenabwehr in Deutschland, das ist fast
00:12:19: mehr als der Rest von Europa zusammen und der Punkt ist eben genau, dass viele auf das
00:12:24: Bauchgefühl vertrauen.
00:12:26: Bei der Abfrage, wo sie einen emotionalen Anrufer haben, muss man aber strukturiert
00:12:31: und objektiv vorgehen und da hilft KI einfach, weil es emotionslos ist, um es mal so zu sagen
00:12:37: und einfach Daten liefert und auf Basis von Daten Entscheidungsvorschläge unterbreitet.
00:12:41: Und natürlich bieten solche Systeme dann eben auch die Möglichkeit, nicht nur aus der
00:12:46: Region, sondern aus der ganzen Nation oder vielleicht aus ganz Europa zu lernen, denn
00:12:51: die Herausforderungen, die wir uns anschauen im Projekt, die betreffen eigentlich die
00:12:54: ganze Welt, jeder hat Hitzeperioden danach kommen Starkregen-Ereignisse und man kann dadurch eben auch schauen,
00:13:00: was bedeuten bestimmte Wettermodelle, Konstellationen eben auch für ein bestimmtes
00:13:05: Einsatzaufkommen.
00:13:06: Und es ist eine Unterstützung und trotzdem ist die Herausforderung, ich habe es gerade
00:13:10: angesprochen, 230 Leitstellen, mehrere Hersteller.
00:13:13: Das Thema Datenqualität, Datenverfügbarkeit, Standardisierung, das sind in solchen KI-Projekten
00:13:21: große Hürden, die man abarbeiten muss und dann natürlich zu schauen, dass man nicht
00:13:25: eine Lösung entwickelt hat, die nur diese eine Leitstelle und nur in folgender Konstruktion und folgendem
00:13:30: Hersteller praktisch sozusagen kompatibel ist, sondern dass man eben auch eine Skalierbarkeit
00:13:36: hat.
00:13:37: Das heißt, wir plädieren eben auch für das Thema Standardisierung und Integration
00:13:41: und offene Schnittstellen und vor allem standardisierte Schnittstellen zu anderen Einsatzleitsystem-Herstellern.
00:13:46: Bei dem Thema Emotionslosigkeit möchte ich an der Stelle nochmal einmal einhaken, weil
00:13:51: Sie eingangs erwähnt hatten, dass die fehlende Empathie der KI
00:13:54: möglicherweise eine Herausforderung ist oder ein Problem der KI
00:13:58: darstellt. Wie bringen Sie das zusammen? Wir müssen uns anschauen in welchem
00:14:03: Anwendungsfall die KI unterwegs ist. Wir reden natürlich hier bei Leitstellen,
00:14:06: Rettungskette von sicherheitsrelevanten Bereichen und jedem muss klar sein und
00:14:12: das machen wir im Projekt eben auch so, dass wir einen Entscheidungsvorschlag
00:14:16: machen. Die KI trifft nicht die Entscheidung, Leute aus der Bereitschaft
00:14:21: zurückzuholen oder Anrufe in die Warteschleife zu schicken oder Rettungsmittel
00:14:26: rauszuschicken. Das ist glaube ich eine sehr, sehr wichtige, wichtige
00:14:29: Entscheidung, die wir gefällt haben. Wenn Sie aber über Einsatz von KI im Bereich
00:14:33: Medizin, Diagnose sprechen, dann ist die Frage, kann denn sozusagen die Anamnese
00:14:40: mit einem KI-Avatar das Gespräch mit einem richtigen Mediziner übernehmen?
00:14:45: Ich glaube, da muss man noch Erfahrungen sammeln. Bei uns ist es so, wir werden immer
00:14:50: in unklare Situationen kommen und vor allem jemand muss die Verantwortung übernehmen.
00:14:54: Jetzt bin ich kein Jurist, aber was passiert, wenn die KI eine Entscheidung trifft, die
00:14:59: dann eben zu sozusagen zu einem Menschenlebenverlust führt? Das sind
00:15:03: Punkte, die man sich natürlich anschauen muss und zum anderen eben auch
00:15:07: unklare Situationen, dieses Bauchgefühl und das ist genau das Spannungsfeld.
00:15:11: Deshalb tasten wir uns mit diesen Projekten, wie wir es machen, langsam vor.
00:15:16: Wichtig für uns ist natürlich, dass wir in unserem AIRCIS-Projekt an die
00:15:20: Schwelle kommen, dass das System eben auch, in dem Fall kommerziell eingesetzt
00:15:25: werden kann und wir nicht wieder ein Forschungsprojekt haben, was nach
00:15:29: Projektende in der Schublade verschwindet und auch da muss man
00:15:33: natürlich dann vielleicht Feedback-Workshops und andere Elemente mit einbauen,
00:15:37: um zu schauen, wie hat sich jetzt die KI, das System im Schichtbetrieb geschlagen,
00:15:42: um es mal so zu sagen. KI lässt sich also nicht ohne den Menschen denken und dabei
00:15:46: kommen ethische Fragestellungen auf. Die wollen wir gleich im anschließenden
00:15:50: Interview noch weiter konkretisieren. Herr von Beesten, ich würde Ihnen abschließen
00:15:54: gerne noch ein paar schnelle Fragen stellen und würde Sie bitten, die innerhalb
00:15:58: von ein bis zwei Setzen ganz kurz zu beantworten.
00:16:01: Die erste Frage, wie wird KI aktuell in der Mobilität genutzt? Noch zu wenig,
00:16:08: aber es ist auf einem guten Weg. Was sind die drei größten technischen Herausforderungen?
00:16:13: Standardisierung, Transparenz bei der Entwicklung und das Thema Vertrauen des
00:16:18: Menschen, der vor der KI sitzt. Welche Anwendungsmöglichkeiten sind noch
00:16:22: ungenutzt? Da sind der Fantasie, glaube ich, keine Grenzen gesetzt.
00:16:33: Nachdem wir uns gemeinsam Einsatzmöglichkeiten von KI für die
00:16:37: effiziente Ressourcenplanung im Rettungsdienst angeschaut haben, soll es
00:16:41: jetzt um ethische und gesellschaftliche Fragen von KI-Nutzung und die
00:16:45: Notwendigkeit menschlicher Kontrolle gehen. Dr. Benjamin Lange leitet eine
00:16:50: Nachwuchsgruppe in der Ethik der KI und dem Maschinellen Lernen an der Ludwig
00:16:54: Maximilians Universität München und dem Munich Center for Machine Learning.
00:16:59: Ergänzend zu seinen angewandten Forschungsschwerpunkten ist Benjamin Lange,
00:17:03: Ethikberater für Unternehmen und Organisation und berät zu Themen im
00:17:07: Bereich Corporate Ethics and Compliance, digitaler Ethik sowie zur Ethik der KI
00:17:12: und Innovation. Herr Lange, schön, dass Sie da sind.
00:17:15: Danke für die Einladung. Herr von Besten hat gerade schon angesprochen,
00:17:20: dass es einige Einschränkungen bei der Nutzung von KI gibt. Keine Empathie,
00:17:25: kein Bauchgefühl, keine Verantwortung. Welche ethischen Fragen muss man denn beim
00:17:30: Einsatz von künstlicher Intelligenz in der Mobilität berücksichtigen?
00:17:34: Tatsächlich glaube ich, gibt es dann eine Reihe von Fragen primär im
00:17:39: Mobilitätskontext. Also eine ist tatsächlich, wie vielleicht auch der
00:17:44: Herr von Beesten angesprochen hat, die Frage nach der Verantwortung. Also wer haftet,
00:17:49: wenn einer KI eine falsche Entscheidung trifft? Ist es der Hersteller, ist es der
00:17:53: Betreiber, ist es der Nutzer? Aber darüber hinaus geht es meiner Ansicht nach auch
00:17:58: um Transparenz in der Entscheidungslogik oder auch um Fairness. Also zum Beispiel
00:18:04: beim Zugang zu KI-gestützten Diensten oder bei der Risikoverteilung. Was
00:18:07: bedeutet das? Also verzerrte Trainingsdaten können diskriminierende
00:18:11: Muster zementieren und das muss auch bei unserem Einsatz von KI aktiv
00:18:15: verhindert werden. Kontrolle heißt zum Beispiel auch, dass wir Erkennbarkeit
00:18:19: für Nutzer schaffen, wenn und wann KI tatsächlich im Spiel ist. Also wann
00:18:24: beurteilen KI-gesteuerte Systeme, ein algorithmisches System, in diesem Fall
00:18:28: ein Entscheidungskontext, das sollte zum Beispiel dargelegt werden. Das sind drei
00:18:32: Punkte, die mir dazu kommen. Und würden Sie sagen, dass die menschliche, ich sage
00:18:37: jetzt mal, Überwachung von KI notwendig ist und wenn ja, warum? Genau, also ich
00:18:43: glaube, die menschliche Kontrolle bleibt und ist notwendig, weil KI nicht in
00:18:49: allen Kontexten die momentanen technischen Möglichkeiten, die wir haben,
00:18:52: interpretieren kann. Also einerseits nicht bei ethischen Dilemmata oder in
00:18:56: solchen Fällen, wo moralische Urteilskraft gefragt ist, das geht nicht.
00:18:59: Oder auch bei komplett unvorhergesehenen Situationen. Also man kann
00:19:03: sich vorstellen, sicherheitskritische Systeme, wo also, im autonomen Fahren,
00:19:08: wo also etwas passiert, worauf das System nicht trainiert worden ist, da muss
00:19:11: der Mensch eingreifen, das muss auch so mitgedacht werden. Das heißt, das
00:19:14: schaltet sich dann das System ab und da muss klar sein, in dem Fall entscheidet
00:19:18: und greift der Mensch wieder ein. Das ist wichtig und deswegen brauchen wir auch
00:19:22: die menschliche Kontrolle. An der Stelle einmal das Stichwort human in the loop,
00:19:27: das ist vorhin schon kurz aufgekommen. Was heißt das eigentlich genau? Ja,
00:19:32: genau, also wörtlich übersetzt sowas wie der Mensch im Bilde oder so tatsächlich.
00:19:36: Also human in the loop bedeutet, dass Menschen hinsichtlich dem Einsatz oder
00:19:40: der Entwicklung von KI bewusst als aktive Kontroll- oder Eingriffsinstanz in
00:19:46: diese automatisierten Prozesse eingebunden sind. Das kann sein bevor, während oder
00:19:51: nach einer Entscheidung der KI tatsächlich. Also das bedeutet, wenn wir
00:19:55: sogar schon das System trainieren, überwachen Menschen und helfen tatsächlich
00:19:59: die Datensätze so aufzuarbeiten, dass sie unseren Vorstellungen entsprechen.
00:20:04: Man unterscheidet bei human in the loop noch zwischen in the loop und on the
00:20:08: loop. On the loop ist sowas wie, ich pass nur auf, also eine überwachende Funktion.
00:20:11: In the loop ist wirklich mitten drin, also vielleicht schon beim Trainieren mehr
00:20:14: kollaborativ oder tatsächlich out of the loop, was dann vielleicht so was ist.
00:20:18: Also der Mensch, der ist gar nicht mehr involviert, das sind also dann voll
00:20:21: autonome Systeme, die tatsächlich greifen. Warum brauchen wir das? In einer
00:20:26: Hinsicht ist die Idee dahinter, dass der Mensch wie so ein moralischer Kompass
00:20:30: fungieren kann, als Interpret von unerwarteten Situationen und tatsächlich
00:20:35: auch als Sicherheitsnetz gegen Systemfehler, wenn gerade mal was
00:20:38: unvorhergesehenes passiert. Das heißt, der Mensch löst in dem Moment quasi das
00:20:43: Problem des Unvorhergesehenen bzw. der Punkte, die der KI vorher, ich sage es mal,
00:20:48: nicht beigebracht wurden, wo die KI keine Entscheidung treffen kann.
00:20:52: Genau, das kann man sich so vorstellen. Und wie läuft das normalerweise ab?
00:20:56: Sie haben ja jetzt schon von in the loop und on the loop gesprochen.
00:20:59: Ist das geplant oder passiert das in bestimmten Situationen?
00:21:04: Also kann das auch sein, dass quasi die KI meldet: ich schaffe das nicht.
00:21:08: Ich brauche dich jetzt, in Richtung des Menschen. Wie läuft das ab?
00:21:11: Genau, das ist also vollkommen richtig. Man sollte sagen, es gibt ganz viele
00:21:15: verschiedene Anwendungen. Also wir haben gerade schon das Beispiel vom autonomen
00:21:18: Fahren gehabt, dann gibt es, weiß ich nicht, vielleicht die Verkehrsoptimierung oder
00:21:22: Ampelprozesse, die sind auch vielleicht KI gesteuert, Stichwort Smart Cities.
00:21:25: Inwiefern human in the loop, on the loop eingesetzt wird, wird immer auch auf
00:21:29: den sogenannten Fall, das Use Case, tatsächlich ankommen. Wie muss der
00:21:33: Mensch in dem Fall in dieses System eingespeist sein? In den meisten Fällen
00:21:37: ist es natürlich geplant. Also auch wenn das System sich abschalten wird, muss klar
00:21:41: sein für den Überwacher, für den Menschen: es kann vorkommen, dass es sich
00:21:44: abschaltet. Gutes Beispiel ist, wieder das Autonome Fahren.
00:21:47: Da ist also, vor allem in Deutschland haben wir ja gute und auch stringente, was
00:21:51: ich für richtig halte, Regeln dazu. Das heißt, der Mensch überwacht das
00:21:54: autonome System und es schaltet sich auch ab. Und das ist zwar geplant, aber
00:21:58: passiert dann ad hoc, wenn zum Beispiel, weiß ich nicht, der Sensor fällt aus oder
00:22:02: irgendwas. Das sind so Beispiele, wie man sich das vorstellen kann.
00:22:04: Und wenn wir uns jetzt die Konsequenzen des Ganzen noch ein bisschen stärker
00:22:08: angucken, also sowohl vielleicht, wenn wir uns KI in der Mobilität angucken, aber
00:22:14: auch dieses Konzept des Human in the Loop. Was hat das für Konsequenzen für
00:22:19: Mobilität in Deutschland? Also es wird vielleicht auch Konsequenzen für die
00:22:24: Arbeitswelt haben, speziell. Also es wird aus meiner Sicht Arbeitsplätze
00:22:28: schaffen und dabei neue Anforderungen an unsere Qualifikationen, Aufmerksamkeit
00:22:34: und die Menschen, die dann im Loop sein werden, tatsächlich stellen. Man muss sich das
00:22:36: so vorstellen, wir brauchen in Zukunft Mitarbeitende, einerseits die technischen
00:22:41: Fähigkeiten, wir müssen also verstehen, was für eine KI wird hier gerade im
00:22:44: Mobilitätssektor eingesetzt, warum, wie funktioniert die. Und
00:22:48: gleichzeitig braucht dann der Human Operator, der Aufseher, was auch immer die
00:22:52: Rolle ist, soziotechnisches, also ethisches Verständnis, abzuwägen,
00:22:57: Entscheidungen zu treffen, die Urteilskraft zu haben. Und das sind
00:22:59: tatsächlich gerade neue Anforderungsbereiche für unsere Kompetenzen,
00:23:03: wo also Bedarf ist. Und das wird sicherlich auch die Arbeitswelt, unseren
00:23:06: Umgang tatsächlich über die technischen Dinge hinweg formen.
00:23:10: Das war auch so ein Punkt, den wir schon mal angesprochen hatten in verschiedenen
00:23:13: Kontexten, wenn es darum geht, dass man ja Angst davor hat, dass Autonomes Fahren
00:23:19: jetzt, wenn man sich Shuttles zum Beispiel anguckt, dass das ja Arbeitsplätze
00:23:24: wegnehmen wird, weil der Busfahrer oder der Taxifahrer nicht mehr gebraucht
00:23:28: wird. Und wir hatten das schon argumentiert, so ein bisschen, dass man dafür aber
00:23:31: vielleicht die Person braucht, die mit in dem Bus drin sitzt und den Menschen ein
00:23:35: Sicherheitsgefühl gibt, weil die irgendwie wissen, ich bin jetzt nicht alleine hier
00:23:39: mit anderen Leuten, das geht ja in eine ähnliche Richtung.
00:23:42: Genau, das würde ich auch so unterschreiben, also ich würde eher
00:23:45: vorsichtig optimistisch, es wird nicht einfach einen Verlust von ganz vielen
00:23:47: Arbeitsplätzen geben, sicherlich einige werden sich ändern, aber es werden eben
00:23:50: auch neue geschaffen und geschaffen werden müssen, wo dann zum Beispiel, wenn man
00:23:54: ein komplett selbstfahrendes Robotaxi hat, Stichwort, weiß ich, Vamo in den USA,
00:23:59: in denen also dann eigentlich kein Fahrer mehr drin sitzt, aber dann gibt es
00:24:02: natürlich immer noch Human Operator, Leute, die das überwachen. Das heißt, das
00:24:06: fordert dann wieder andere Kompetenzen. Ich glaube, so kann man sich das
00:24:08: vorsichtig optimistisch vorstellen. Vorsichtig optimistisch, das ist an der
00:24:12: Stelle ein gutes Stichwort. Wenn wir mal versuchen, in die Glaskugel zu schauen,
00:24:17: entwickeln sich wohl Technologie, aber auch Regulierung und ethische Fragen
00:24:22: jetzt so weiter, dass der Mensch vielleicht irgendwann in the Loop oder
00:24:27: on the Loop doch nicht mehr gebraucht wird oder können gewisse Voraussetzungen
00:24:31: nie erfüllt sein. Ja, ich finde, das ist eine spannende Frage. Also ich glaube,
00:24:36: wenn Sie mich jetzt als Ethiker fragen, langfristig wird der Mensch nicht in jedem System noch
00:24:42: physisch präsent sein. Der Mensch wird aber aus meiner Sicht auf einer tieferen
00:24:46: Ebene immer nötig bleiben, entweder als Gestalter der Rahmenbedingungen oder als
00:24:52: ethische Kontrollinstanz oder tatsächlich als Garant für Verantwortung.
00:24:55: Das heißt, technisch kann vieles autonom laufen, aber die moralische
00:24:58: Verantwortung wird immer menschlich bleiben. Und ich glaube, dann hilft uns
00:25:02: das so ein bisschen, diese Frage vielleicht auch umzuschichten. Die entscheidende
00:25:05: Frage wird dann aus meiner Sicht nicht sein, ob der Mensch eingebunden ist,
00:25:09: sondern eher, wie er eingebunden sein wird. Es gibt dann manche Systeme, wo
00:25:12: vielleicht, weiß ich nicht, sicherheitskritische Dinge auf dem Spiel stehen.
00:25:15: Da muss eine stärkere Einbindung geschehen, dann gibt es vielleicht Bereiche, die
00:25:18: nicht so schwerwiegend sind, wo man eine leichte Aufsicht hat, aber die Frage
00:25:21: wird immer nach dem Wie sein, aus meiner Sicht. Und gibt es da Beispiele für,
00:25:25: für beide Fälle, also für dieses "Okay, da wird der Mensch vielleicht nicht mehr so
00:25:28: stark drin involviert sein und da vielleicht schon?"
00:25:32: Genau, ich würde vielleicht nochmal das Autonome Fahren tatsächlich anführen.
00:25:35: Das ist so ein Beispiel, das funktioniert super. Ich meine, wir bewegen uns auf den
00:25:38: verschiedenen Stufen, die es dazu gibt, stetig voran und das ist wirklich top.
00:25:41: Da wird der Fahrer immer noch in der Lage sein müssen, einzugreifen, aber das
00:25:45: funktioniert klasse. Aber ich stelle mir jetzt solche Dinge vielleicht etwas
00:25:48: futuristischer vor wie, weiß ich nicht, Smart Cities in dem Zukunft KI, unseren
00:25:52: Traffic, weiß ich nicht, unseren Verkehr optimieren wird durch, weiß ich nicht,
00:25:56: multiple Analysen des Live-Verkehrs irgendwie bei uns hier in Essen.
00:26:01: Da wird es wahrscheinlich sein, dass man da genauer drauf schauen muss, das ist
00:26:04: natürlich auch sicherheitskritischer, weil da kann schnell mal ein Unfall passieren,
00:26:07: immer wenn Menschenleben auf dem Spiel stehen, da muss ein Mensch mehr und
00:26:09: stärker eingebunden sein.
00:26:12: Dankeschön. Ich würde Ihnen zum Abschluss gerne noch ein paar kurze Fragen stellen.
00:26:17: Und meine Bitte wäre, dass Sie die in ein bis zwei Sätzen beantworten.
00:26:21: Was sind die drei größten ethischen Herausforderungen?
00:26:24: Die nach der Verantwortung, der Transparenz und auch der Fairness in der KI.
00:26:30: Und welche gesellschaftlichen Herausforderungen sind mit der Nutzung von KI für
00:26:34: Mobilität verbunden?
00:26:36: Das Garantieren der Sicherheit für alle Nutzer und auch das Schaffen von neuen
00:26:40: Fähigkeiten.
00:26:41: Und was wird durch KI in der Mobilität für die Gesellschaft verbessert?
00:26:45: Der allgemeine Zugang zu allen mobilrelevanten Aktivitäten und
00:26:50: das mehr sicher.
00:26:51: Einen ganz herzlichen Dank an Joachim von Beesten, von der Björn-Steiger-Stiftung
00:26:57: und an Dr. Benjamin Lange von der LMU München für die Projekteinblicke und
00:27:02: die ethischen Diskussion.
00:27:04: Euch, liebe Hörerinnen und Hörer, danke fürs Hören und bis bald.
00:27:09: Schön, dass ihr heute dabei wart.
00:27:14: Wenn es euch gefallen hat, abonniert uns gerne und teilt den Podcast.
00:27:17: Bei Fragen und Anregungen schreibt uns an mpact@tuv.com.
00:27:23: [Musik]
00:27:43: [MUSIK]
00:27:45:
Neuer Kommentar