Die Reise zur verantwortungsvollen KI
Frankie Carrero: [00:00:06]
Hallo und herzlich willkommen. Ich bin Frankie Carrero, Director Data und KI bei VASS, einem führenden Unternehmen für digitale Lösungen. Wir sind in 26 Ländern in Europa, Amerika und Asien vertreten und arbeiten gemeinsam mit unseren Kunden, Partnern und wichtigen Branchenakteuren. Gemeinsam liefern wir erstklassige digitale Innovationen, die die Landschaft von Banking, Retail, Insurance, öffentlicher Verwaltung, Versorgungsunternehmen, Telekommunikation und natürlich auch der Medienbranche gestalten.
In der heutigen Episode begeben wir uns ins Herz der ethischen Technologie mit Fokus auf verantwortungsbewusste KI in Unternehmen. Entsprechend unserem Ansatz „Mindful Technology“ werden wir aufschlüsseln, was es bedeutet, Verantwortung in den KI-Rahmen eines Unternehmens zu integrieren. Wir werden außerdem eingehend die Herausforderungen und Erfolge beim Aufbau einer KI beleuchten, die mit menschlichen Werten im Einklang steht, und diskutieren, warum ein starkes Engagement für ethische Standards entscheidend für die Zukunft der KI ist.
Heute zu Gast haben wir einen besonderen Interviewpartner: Richard Benjamins, Chief Responsible AI Officer bei Telefónica und Mitgründer von OdiseIA. Bei diesem großen Telekommunikationskonzern hat Richard eine Kultur vorangetrieben, die nicht nur Innovation fördert, sondern auch das menschliche Wohlergehen in den Vordergrund stellt. Gemeinsam werden wir erkunden, wie Unternehmen zu Leuchttürmen verantwortungsbewusster KI werden können, neue Maßstäbe für die Branche setzen und sicherstellen, dass wir uns bei technologischem Fortschritt unseren ethischen Grundlagen treu bleiben. Richard, vielen Dank, dass Sie heute dabei sind.
Richard Benjamins: [00:01:39]
Ja, Frankie, vielen Dank, dass Sie mich hier eingeladen haben. Es ist mir wirklich eine Freude.
Frankie Carrero: [00:01:45]
Es ist uns eine Freude. Ich denke, wir starten direkt in das Gespräch. Wenn es für Sie in Ordnung ist, würde ich Sie bitten, unserer Zuhörerschaft zu erklären: Was genau ist Responsible AI und welche Rolle nimmt sie in einem Mutterkonzern ein? Also Richard, nun sind Sie am Zug.
Richard Benjamins: [00:02:06]
Okay, Responsible AI ist für mich einfach eine Kurzform für den verantwortungsvollen Einsatz von KI. Denn KI an sich ist keine Technologie, die per se „verantwortlich“ oder „unverantwortlich“ ist. Vielmehr macht erst der Einsatz durch Menschen und Organisationen die KI verantwortlich oder nicht verantwortlich.
Dabei gibt es zwei Aspekte des verantwortungsvollen KI-Einsatzes. Der häufigste Zusammenhang ist, KI-Technologien so zu nutzen, dass man bei der Verfolgung der Ziele einer KI-Anwendung – sei es Nutzen oder wirtschaftlicher Impact – gleichzeitig mögliche negative Auswirkungen auf Menschen, Gesellschaft oder Umwelt berücksichtigt und so weit wie möglich vermeidet. Wir nennen das oft „Responsible AI by Design“, weil es deutlich einfacher ist, potenzielle Probleme schon in der frühen Entwicklungsphase zu korrigieren als ein Produkt nach Markteinführung wieder zurückziehen zu müssen und umfangreiche Kommunikation zu betreiben.
Der zweite Aspekt ist „AI for Good“: KI nicht nur zum Nutzen von Unternehmen oder Organisationen zu verwenden, sondern auch, um Gutes für die Gesellschaft zu tun und beispielsweise bei der Erreichung der Sustainable Development Goals der Vereinten Nationen zu helfen.
Frankie Carrero: [00:03:59]
Ich würde sagen, dass es genau richtig ist, den Begriff „Einsatz“ in die Definition aufzunehmen. Wir haben alle schon gehört, wie manche sagen: „Eine KI macht dies und tut das.“ Dabei stehen hinter jeder KI Entscheidungen von Menschen. Sie haben vollkommen Recht. Nun haben wir eine erste Definition, sodass jeder eine Vorstellung davon bekommen kann, was verantwortungsvoller KI-Einsatz ist.
Jetzt muss man jedoch sagen, dass es ein noch relativ junges Thema ist – es gibt wahrscheinlich noch nicht viele Fälle. Haben Sie dennoch erfolgreiche Beispiele für Responsible-AI-Implementierungen aus verschiedenen Branchen gesehen, die uns veranschaulichen, was genau Verantwortung in der Praxis bedeutet?
Richard Benjamins: [00:04:58]
Wenn es gut läuft, entstehen keine Issues – dann hört man nichts über verantwortungsvollen KI-Einsatz, weil einfach alles reibungslos funktioniert. Man spricht eher dann darüber, wenn etwas schiefgeht. Es gibt natürlich Tausende Beispiele, in denen KI verantwortungsvoll eingesetzt wird und alles gutgeht. Leider gab es aber auch viele Zwischenfälle, bei denen KI Dinge getan hat, die nicht hätten passieren dürfen.
Ein konkretes Beispiel: Angenommen, ein Finanzunternehmen nutzt KI, um zu entscheiden, ob Kundinnen und Kunden einen Kredit erhalten oder nicht. Man greift auf historische Kundenattribute zurück und lernt daraus ein Modell, das bei neuen Kunden vorhersagen soll, ob sie den Kredit zurückzahlen oder in Zahlungsschwierigkeiten geraten. Wenn man das verantwortungsvoll macht, überprüft man vor Markteinführung, ob das Modell nicht gegen geschützte Merkmale diskriminiert – etwa Geschlecht, ethnische Herkunft oder politische Präferenzen. Man möchte nicht, dass das Modell allein auf Basis solcher Merkmale entscheidet. Wenn man all das von Anfang an berücksichtigt, ist dies ein Beispiel für verantwortungsvollen KI-Einsatz.
Andererseits dokumentiert die OECD in ihrer „AI Incident Monitor“-Datenbank inzwischen über 7.000 Fälle, in denen KI schiefgelaufen ist. Diese Datenbank zeigt sehr anschaulich, welche Probleme vulnerable Gruppen – etwa Minderjährige oder bestimmte ethnische Gruppen – erleben und in welchen Branchen und Ländern solche Vorfälle gehäuft auftreten. Wenn man verstehen will, was passiert, wenn man keinen verantwortungsvollen KI-Einsatz gewährleistet, ist diese Datenbank sehr aufschlussreich.
Frankie Carrero: [00:07:34]
Da haben Sie vollkommen recht: Man wird oft erst aufmerksam, wenn etwas schiefgeht. Wir haben ja zahlreiche Negativbeispiele gesehen. Wenn es schiefläuft, muss jemand die Verantwortung tragen. Gibt es aktuell schon einen festen Verantwortlichen in einer Organisation, an den man sich wendet, oder regeln das bisher eher rechtliche Instanzen, wenn ein Vorfall auftritt?
Richard Benjamins: [00:08:13]
Meinen Sie generell oder speziell in meinem Unternehmen?
Frankie Carrero: [00:08:15]
Generell.
Richard Benjamins: [00:08:16]
Generell existiert bislang kaum offizielle gesetzliche Regulierung, die den ethischen oder verantwortungsvollen Einsatz von KI im Unternehmen verbindlich vorschreibt. Es gibt jedoch viele freiwillige Empfehlungen und Leitlinien. Beispielsweise hat die OECD AI-Grundsätze veröffentlicht, Unesco hat eine KI-Empfehlung, die von 193 Ländern unterzeichnet ist. Das sind bedeutende, internationale Leitlinien, die Regierungen und auch den privaten Sektor dazu animieren, KI verantwortungsvoll zu nutzen.
Innerhalb von Unternehmen ist es heute so, dass man als verantwortungsbewusstes Unternehmen im Rahmen von ESG (Environmental, Social, Governance) schon Mindestanforderungen erfüllen muss. ESG bedeutet, dass man etwa Themen wie Klimaschutz oder faire Lieferketten adressiert – und im Bereich „Governance“ auch die Frage, wie man KI-Systeme verantwortungsvoll einsetzt.
Je reifer ein Unternehmen wird, desto stärker verschiebt sich das Thema in den Bereich Compliance, wo es dann verpflichtend wird. Das heißt: Man muss risikobasierte Bewertungen für jedes KI-System durchführen. Liegen nur geringe Risiken vor, reicht das meist schon, und man kann das System einsetzen. Wenn jedoch höhere Risiken erkennbar sind – zum Beispiel in der Medizin, wo eine falsche Diagnose große Auswirkungen hätte – muss man strengere Anforderungen erfüllen und potenzielle negative Auswirkungen vor Markteinführung abmildern.
Frankie Carrero: [00:09:51]
Danke. Kommen wir zurück zu Ihrer Rolle als Chief Responsible AI Officer: Was tun Sie konkret bei Telefónica? Liegt Ihr Fokus eher auf Strategie, oder sind Sie auch sehr operativ eingebunden?
Richard Benjamins: [00:10:05]
Angefangen hat alles vor etwa vier bis fünf Jahren mit der Strategie: Wir mussten zunächst definieren, was wir tun wollen, wie der grobe Rahmen aussieht, welche Prinzipien gelten sollen – eben ein Strategie- und Grundsatzprojekt. Inzwischen setzen wir das unternehmensweit um, was sehr operativ geworden ist. Wenn Sie möchten, erläutere ich kurz den Weg, den wir bei Telefónica gegangen sind.
Wir haben 2018 unsere Ethik-KI-Prinzipien veröffentlicht. Sie lauten: Fairness (keine Diskriminierung), Transparenz/Erklärbarkeit (wenn es die Anwendung verlangt), Human-Centricity (die Technologie soll Menschen unterstützen, nicht ersetzen, inklusive angemessener Eingriffsmöglichkeiten). Das vierte Prinzip ist Privacy & Security – hier mussten wir jedoch nicht viel neues aufsetzen, da Datenschutz und IT-Sicherheit in großen Unternehmen bereits etabliert sind; wir haben also nur die KI-spezifischen Aspekte ergänzt. Das fünfte Prinzip bezieht sich darauf, dass wir auch in unseren Partnerschaften und Joint Ventures dieselben Standards erwarten.
Parallel dazu haben wir einen Fragenkatalog („Questionnaire“) entwickelt, um unsere KI-Produkte systematisch zu evaluieren: Passen sie zu unseren Ethikprinzipien oder nicht? Wir haben diesen Fragebogen an verschiedenen Projekten getestet und mehrfach angepasst, weil es nicht einfach ist, Ethik oder Verantwortung zu messen. Anfang 2022 haben wir dann in vier Geschäftseinheiten einen Piloten für ein Governance-Modell gestartet, also: Wer übernimmt in der Organisation welche Rolle und welche Verantwortung?
Daraus resultierten drei neue Rollen:
Responsible AI Champion: Eine Person in jeder Business Unit, die als Ansprechpartner für ethische Fragestellungen zum KI-Einsatz fungiert – vergleichbar mit einem Datenschutzbeauftragten, aber für ethische KI-Aspekte.
AI Ethics Committee: Ein interdisziplinäres Expertengremium aus Fachleuten für KI, Datenschutz, Menschenrechte usw., das beratend tätig ist.
AI Office: Ein kleines Koordinationsgremium, das die Veränderung im gesamten Konzern vorantreibt und die Umsetzung begleitet.
Nach einem Jahr Pilotphase haben wir das Governance-Modell finalisiert und im Dezember 2024 offiziell verabschiedet. Seitdem sind wir in der Implementierungsphase. Damit hat sich mein Aufgabenbereich von Strategie hin zu vollständiger Ausführung entwickelt – sehr hands-on.
Frankie Carrero: [00:15:20]
Telefónica ist ein sehr etabliertes Unternehmen mit großer Daten- und KI-Erfahrung. Angenommen, ein Unternehmen mit deutlich geringerer KI-Reife möchte verantwortungsbewusste KI einführen: Würden Sie auch bei Null mit Strategie beginnen, oder gibt es einen einfacheren Weg?
Richard Benjamins: [00:15:53]
2018 gab es nur wenige Prinzipien, aus denen man auswählen konnte. Heute können Unternehmen zum Beispiel einfach erklären, dass sie sich an die OECD-Prinzipien halten oder an die Unesco-Empfehlung – diese Dokumente enthalten bereits viele Werkzeuge und Anleitungen zur Umsetzung.
Allerdings hängt es sehr stark davon ab, welche Rolle das Unternehmen in der KI-Wertschöpfungskette spielt:
Reiner KI-Anwender: Ein Mittelstandsunternehmen, das KI einsetzt, aber nicht selbst entwickelt, hat andere Anforderungen als
KI-Entwickler oder -Anbieter: Ein Startup oder Technologieanbieter, das KI-Produkte erstellt und vertreibt.
Für einen einfachen KI-Anwender genügt bereits, eine Person zu ernennen, die die Übersicht behält: Welche KI-Systeme sind im Einsatz oder in Planung? Gegebenenfalls externe Experten hinzuzuziehen, um eine Risikoabschätzung vorzunehmen (z. B. Auswirkungen auf Menschenrechte, Umwelt oder soziale Gruppen).
Zugegeben: Das klingt auf den ersten Blick aufwendig. Aber die meisten KI-Anwendungen sind in der Praxis harmlos, weil sie Prozesse optimieren, die ohnehin schon laufen. Nur bei hochriskanten Use Cases, etwa in Medizin, Personalentscheidungen oder Finanzdienstleistungen, muss man intensiv prüfen. Ein KMU, das lediglich Kundendaten zu Marketingzwecken auswertet, wird kaum einen hochriskanten Use Case haben und kann relativ einfach starten: Überblick verschaffen, Kurz-Risikoanalyse durchführen, Low-Risk-Systeme sofort einsetzen, High-Risk-Systeme erst besprechen.
Frankie Carrero: [00:18:28]
Sie meinen also, man sollte die passendsten, risikoarmen Use Cases für den Einstieg auswählen. Wir sehen in Unternehmen oft, dass die innovativsten Projekte gleichzeitig die ethisch heikelsten sind. Wie sollte man hier vorgehen, um zwischen risikoarmen und potenziell gefährlichen Use Cases zu unterscheiden? Außerdem stehen Regulierungen in Europa an, deren Auswirkungen noch nicht genau absehbar sind. Soll man daher lieber mit einfachen Projekten beginnen oder ist es möglich, strukturiert an komplexe Projekte heranzugehen?
Richard Benjamins: [00:19:59]
Erstens möchte ich klarstellen, dass Innovation und Risiko nicht zwangsläufig korrelieren. Ein Projekt kann sehr innovativ sein und trotzdem nur minimalen ethischen Impact haben, oder andersherum.
Wenn ein Unternehmen neu mit KI beginnt, würde ich empfehlen, mit einem Geschäftsbereich zu starten, bei dem die KI-Anwendung zwar Nutzen bringt, aber keine schwerwiegenden Nebeneffekte haben kann. Zum Beispiel: Predictive Maintenance in der Produktion – wenn das Modell einmal falschliegt, gibt es weder Personen- noch Systemschäden, sondern nur ineffizientere Wartungsplanung.
Was man jedoch nicht sofort angehen sollte, wenn man wenig KI-Erfahrung hat, ist der HR-Bereich. Wenn ein Algorithmus Bewerbungen bewertet oder Personalentscheidungen trifft, besteht hohe Gefahr von versteckter Diskriminierung (z. B. Geschlecht, Alter, Herkunft). Zudem gilt Personal-KI bereits als Hochrisikobereich in der geplanten EU-Verordnung. Man müsste dann strenge Vorgaben erfüllen, Mitarbeitende und Betriebsrat frühzeitig einbinden, umfangreiche Dokumentation bereitstellen – das ist für Anfänger eher ungeeignet.
Zusammenfassend: Ein KMU oder mittleres Unternehmen sollte zunächst Use Cases wählen, die keinen Menschen unmittelbar schaden können (z. B. Produktion, Logistik, Marketing ohne persönliche Daten). So macht man sich mit verantwortungsvollem KI-Einsatz vertraut. Später, wenn man Erfahrung gesammelt hat und die Prozesse etabliert sind, kann man sich an höher riskante Anwendungsfelder heranwagen.
Frankie Carrero: [00:21:54]
Verstanden. Vielen Dank. Ein weiteres großes Thema ist die Zusammenarbeit mit externen Partnern und Branchenkollegen: Wie fördert man gemeinsam Responsible-AI-Praktiken, wenn man Kooperationsprojekte hat?
Richard Benjamins: [00:22:14]
Das tun wir kontinuierlich, und zwar auf verschiedenen Ebenen:
OECD-Expertengruppen: Wir sind in mehreren AI-Arbeitsgruppen der OECD aktiv, tauschen Best Practices aus und helfen bei der Erstellung von Leitlinien zu verantwortungsvoller KI.
World Economic Forum: Beteiligung an Task Forces für KI-Governance, um global abstimmte Empfehlungen zu erarbeiten.
Unesco Business Council: Gemeinsam mit Microsoft leiten wir in diesem Rahmen Best-Practice-Initiativen, um anderen Unternehmen – auch branchenübergreifend – Materialien, Leitfäden und Schulungen zur Verfügung zu stellen.
GSMA und Mobile World Congress: Innerhalb der Telekommunikationsbranche engagieren wir uns in einer Task Force namens „AI for Impact“, um verantwortungsvollen KI-Einsatz im Mobilfunksektor zu fördern und branchenweit zu teilen.
Unser Ziel ist nicht, uns dadurch einen Wettbewerbsvorteil zu verschaffen (obwohl es das natürlich auch tut), sondern vielmehr, dass alle Unternehmen und öffentlichen Verwaltungen KI verantwortungsvoll einsetzen und nicht ausschließlich profitorientiert handeln. Nur so können wir den gesellschaftlichen Nutzen maximieren und Risiken minimieren.
Frankie Carrero: [00:23:37]
Sie sind auch Mitgründer von OdiseIA, einer Organisation, die eine Plattform für viele Akteure zum Thema verantwortungsvolle KI bietet. Was genau bedeutet OdiseIA und wie trägt die Initiative dazu bei, in diesem Bereich Veränderung zu bewirken?
Richard Benjamins: [00:23:55]
Gerne. OdiseIA ist eine gemeinnützige, unabhängige Organisation, die Akteuren – also Unternehmen, Verbänden, öffentlicher Hand und der Zivilgesellschaft – hilft, den verantwortungsbewussten Einsatz von KI zu verstehen und umzusetzen.
Wir sind ein Team aus interdisziplinären Expertinnen und Experten: Universitätsprofessoren, Technologiejournalisten, KI-Spezialisten, Juristen und Ethikforscher. Unser Angebot umfasst Thought Leadership-Publikationen, Veranstaltungen, Studien und Forschungsvorhaben. Wir richten uns sowohl an
Organisationen (öffentlich und privat), die KI verantwortungsvoll nutzen möchten, und
Zivilgesellschaft und Bürgerinnen und Bürger, denn in der Diskussion um verantwortungsvolle KI fehlen häufig die Perspektiven der betroffenen Menschen. Letztlich sind es ja die Bürgerinnen und Bürger, die von potenziellen negativen Folgen betroffen sind.
Ein konkretes Produkt sind unsere Sektor-Impact-Assessments: Wir untersuchen die Auswirkungen und Risiken bestimmter KI-Anwendungen in relevanten Branchen wie Tech-Industrie, Verteidigung, Gesundheitswesen oder Versicherungen. Dabei zeigen wir auf, wie man in diesen Sektoren KI ethisch und verantwortungsvoll einsetzen kann, um sowohl geschäftlichen als auch gesellschaftlichen Mehrwert zu schaffen.
OdiseIA wurde vor etwa vier Jahren von einer Gruppe unabhängiger Expertinnen und Experten gegründet, die alle Berührungspunkte zu verantwortungsvoller KI haben. Mit unseren Aktivitäten – Kongresse, White Papers, Beratung – bringen wir Unternehmen, Regierungen, NGOs und Zivilgesellschaft zusammen, um gemeinsam Rahmenbedingungen und Best Practices zu entwickeln.
Frankie Carrero: [00:26:17]
Vielen Dank. Ich bin selbst seit etwa drei Jahren Mitglied und habe gesehen, wie OdiseIA in den letzten Jahren an Bedeutung gewonnen hat und inzwischen eine wichtige Rolle in der KI-Landschaft spielt.
Nun nähern wir uns dem Ende des Interviews, und ich möchte noch ein Stichwort ansprechen, das in den letzten Monaten sehr populär geworden ist: Transparenz. Wie können Unternehmen wirklich Transparenz in ihren KI-Systemen sicherstellen? Wir alle möchten ja wissen, warum eine Person eine Entscheidung trifft. Aber wir möchten auch wissen, warum ein KI-System ein bestimmtes Ergebnis liefert. Wie kann man Transparenz in der Praxis umsetzen, und ist das heute überhaupt realistisch?
Richard Benjamins: [00:27:11]
Vielen Dank, Frankie. Transparenz ist in bestimmten Anwendungsfällen sehr wichtig. Ich möchte kurz erklären, warum.
Früher basierten viele KI-Systeme auf einfachen, von Menschen geschriebenen Regeln („Expertensysteme“). Wenn das System eine Schlussfolgerung zog, konnte man rückverfolgen, mit welchen Regeln es gearbeitet hat. Experten konnten sagen: „Ja, das leuchtet ein“ oder „Nein, das mache ich so nicht.“
Mit Deep Learning sind die Modelle jedoch sehr groß, entstehen aus Millionen von Parametern, Gewichten und nichtlinearen Berechnungen. Menschen haben keine intuitive Einsicht mehr, warum das Modell eine bestimmte Person kränker einstuft als eine andere oder warum es im Schachzug X auf Zug Y kommt.
Für Use Cases mit hoher Risikopotenz (z. B. Medizin, Justiz, Kreditvergabe) ist diese Undurchsichtigkeit gefährlich: Ärztinnen und Ärzte oder Richterinnen und Richter müssen nachzuvollziehen können, warum das System zu einer Empfehlung kommt. Andernfalls könnten sie falsche Entscheidungen treffen, die Menschenleben oder Freiheitsrechte betreffen.
Ein bekanntes Beispiel: Man hat ein Modell trainiert, Hunde von Wölfen zu unterscheiden, und es erzielte eine hohe Accuracy. Fragte man das System aber nach den ausschlaggebenden Pixeln, merkte man, dass die betreffenden Bilder von Wölfen oft Schnee im Hintergrund zeigten. Das Modell „lernte“ also: Schnee = Wolf. Das funktioniert in einer Testumgebung, aber in der realen Welt ist das fehlerhaft und kann zu gefährlichen Fehlklassifikationen führen.
Deshalb ist Transparenz essenziell bei Hochrisiko-Anwendungen. In der geplanten KI-Verordnung der EU ist eine Offenlegungspflicht für Hochrisiko-Systeme bereits vorgesehen, und ähnlich gibt es Vorschriften in anderen Ländern. Für nicht-kritische Use Cases wie Film- oder Musikeempfehlungen, subtil personalisierte Werbung oder einfache Chatbots braucht man hingegen keine umfassende Erklärung. Falschempfehlungen in diesen Bereichen haben keine existenziellen Konsequenzen.
Hinzu kommt das Thema Generative AI bzw. Large Language Models (LLMs) wie GPT-Modelle – sie gehören zur nächsten Entwicklungsstufe und sind weit komplexer als klassische Deep-Learning-Netze. Man kann etwa mit ChatGPT eine erstaunlich gute Unterhaltung führen, aber niemand kann wirklich erklären, auf welcher Basis das Modell plötzlich einen konsistenten, schlüssigen Text generiert. Es funktioniert eher „stochastisch“ und hochskaliert.
In der EU-Verordnung sind nun sogar generative Systeme („Foundation Models“) aufgeführt: Wer ein Modell dieser Größe oder darübergrenzen in der EU vertreiben will, muss u. a. offenlegen, wie die Datenaufbereitung und das Training erfolgt sind, wie groß das Modell ist, welche Grenzen es hat und welche potentiellen Risiken schon im Vorfeld identifiziert wurden. Das gilt aber nur, wenn das System in Hochrisikobereichen eingesetzt werden soll.
Für Low-Risk-LLMs gilt keine formelle Erklärpflicht – man kann sie einfach nutzen. Wenn sie jedoch in gesundheitsrelevanten oder rechtsethischen Anwendungen eingesetzt werden, ist Transparenz also verpflichtend.
Frankie Carrero: [00:29:29]
Vielen Dank, Richard. Wie gesagt, die Zeit verfliegt, daher müssen wir das Gespräch beenden. Es war mir eine große Freude, Sie hier zu haben, und vielen Dank für alle Ihre Erkenntnisse, die Sie mit unserer „unwAIred“-Community geteilt haben. Sie sind jederzeit herzlich willkommen.
Richard Benjamins: [00:29:50]
Es war mir eine Freude, hier zu sein, Frankie. Vielen Dank und auf Wiedersehen.
Frankie Carrero: [00:29:54]
Danke sehr. Damit ist die heutige Folge beendet. In ein paar Wochen sind wir zurück mit einem weiteren Deep Dive in die Welt der künstlichen Intelligenz in unserer Podcast-Reihe. Bleiben Sie also dran, und ein großes Dankeschön an alle Zuhörerinnen und Zuhörer, dass Sie uns auf dieser Reise begleiten. Vielen Dank!