Zum Schreiben nutze ich ausschließlich meine persönliche KI
Für meine Beiträge – auf meinen Internetseiten sowie in den Fachmagazinen und Zeitungen, für die ich schreibe – nutze ich keine Artificial Intelligence AI, sondern ausschließlich die kognitive Intelligenz KI meines Gehirns. Die kognitive Intelligenz des Menschen ist durch nichts, auch nicht durch die modernste AI, zu ersetzen. Mir ist bewusst, dass ich mich mit dieser Aussage auf heiß diskutiertes Terrain begebe. Aber wie Sie schon an der Länge dieses Beitrages sehen, hat AI nicht nur Schokoladenseiten.
Ich bin ausgebildeter Ingenieur der Nachrichtentechnik und Elektronik. Computer und Digitaltechnik waren auch damals, Ende der 1980er- bis Anfang der 1990er-Jahre, bereits fixer Teil des Lehrplans, sowohl in Theorie als auch in praktischen Übungen. In meinem Maturajahr 1992 war Digitaltechnik erstmals ein Pflichtfach bei der Abschlussprüfung.
Über Internet, Cloud-Computing und Artificial Intelligence habe ich als HTL-Schüler natürlich noch nichts gelernt. Als Ingenieur stehe ich Innovationen und technischen Entwicklungen naturgemäß sehr offen gegenüber. Bei Artificial Intelligence ziehe ich aber, aus mehreren Gründen, eine Grenze.
AI ist unbestritten schneller als der Mensch
Jedes Smartphone verfügt heute über mehr Rechenleistung als die „Computer“ der Apollo 11-Mission, deren Erfolg am 21. Juli 1969 die erste bemannte Mondlandung war. Als Jugendlicher verbrachte ich viele Abende vor Computerspielen mit extrem pixeliger Grafik (anfänglich sogar noch monochrom), die nur mehr im Museum zu sehen ist. Heute hingegen ist fotorealistische Grafik Standard.
Die reine mathematische bzw. digitale Rechenleistung von Computern übersteigt schon seit Jahrzehnten jene des menschlichen Gehirns. Der technische Fortschritt in diesem Bereich ist ebenso enorm wie faszinierend. Was AI definitiv besser kann als der Mensch ist, schneller zum Ergebnis kommen.
AI-Systeme suchen geeignete Arzneimittel für Patienten, unterstützen die medizinische Diagnostik, analysieren Materialproben von Weltraummissionen, erstellen Wetterprognosen um ein Vielfaches schneller als bisherige Systeme und Vieles mehr. AI soll Gehirnaktivitäten in Sprache übersetzen, damit Menschen, die nicht sprechen können, die Kommunikation mit ihrem Umfeld ermöglicht wird.
Wenn es um die reine Geschwindigkeit von Rechenoperationen und dem Abarbeiten von Programmzeilen geht, sieht das menschliche Gehirn unbestritten alt aus gegen Artificial Intelligence.
Künstlich ja, wirklich intelligent nein.
Per Definition beschreibt Artificial Intelligence, der englische Begriff für künstliche Intelligenz, eine Nachahmung menschlicher Intelligenz mithilfe von Maschinen bzw. Computern. Künstlichkeit spreche ich AI nicht ab, Intelligenz im Vergleich mit der Leistungsfähigkeit des menschlichen Gehirns sehr wohl. Denn Intelligenz bezeichnet ganz allgemein die kognitive Leistungsfähigkeit und Denkfähigkeit von Menschen. Zu kognitiver Intelligenz gehören Fähigkeiten wie schlussfolgern, abstrakt denken und planen.
Ein Beispiel: Systeme, die (mehr oder weniger) autonomes Autofahren ermöglichen, können bis heute nicht unterscheiden, ob zwischen parkenden Autos ein Kleinkind hervorläuft oder ein aufgeblähtes Plastiksackerl vom Wind hervorgeweht wird. AI scheitert an der Unterscheidung, für das menschliche Gehirn ist der Unterschied in Sekundenbruchteilen klar. AI ist viel dümmer als viele meinen.
Menschliche Intelligenz hat im Zuge der Evolution die Fähigkeit entwickelt, mit Ungewissheit umzugehen. Aus den geistigen Möglichkeiten des menschlichen Gehirns stechen vier hervor:
- Kausales Denken, das heißt die Struktur von Ursache und Wirkung in der Welt zu verstehen.
- Intuitive Psychologie, zum Beispiel die Absichten und Überzeugungen anderer Menschen zu verstehen.
- Intuitive Physik, zum Beispiel die Eigenschaft, von Zeit und Raum zu verstehen.
- Intuitives Sozialverhalten, zum Beispiel Kooperation, Konkurrenz, soziale Normen und Ethik.
Von all dem ist AI heute noch weit entfernt – daher nicht intelligent im Vergleich mit unserem menschlichen Gehirn.
Microsoft: Sind von einer „KI-Superintelligenz“ noch weit entfernt
ChatGPT ist ein schlechter Kinderarzt
DPD-Chatbot schimpft über den schlechten Service der eigenen Firma
KI ist ein hochmotivierter, aber schlampiger Mitarbeiter
Am Kopf kratzen bringt 380 Euro Strafe: KI versagt als Straßenpolizist
Wenn die KI beim Mülltrennen zu halluzinieren beginnt
Wie KI-Modelle an „Rinderwahnsinn“ zugrunde gehen können
Eigene Daten als „Achillesferse“ der KI
Aus der Vergangenheit auf die Zukunft schließen ging schon oft daneben
Die Ergebnisse von AI-Algorithmen wie ChatGPT basieren auf Daten der Vergangenheit, die aus vielen verschiedenen Quellen in unfassbarer Geschwindigkeit gesammelt und ausgewertet werden. Als Finanzdienstleister erinnert mich das an Trendfolge-Modelle, die herangezogen werden, um Kauf- und Verkaufszeitpunkt von Investments zu berechnen.
Die Liste an Trendfolge-Modellen, die letztendlich an der Realität der Finanzmärkte gescheitert sind, ist sehr lange. Das echte Leben fördert nun einmal Ereignisse zutage, die es in der Vergangenheit noch nie gegeben hat, und die Programmierer nicht einmal im Entferntesten für möglich halten. „Schwarzer Schwan“ nennt man solche Geschehnisse. Ein Beispiel dafür sind die Terroranschläge auf das New Yorker World Trade Center im September 2001, auch bekannt als „9/11“.
Niemand kann ausschließen, dass so ein „Schwarzer Schwan“ vielleicht schon morgen wieder über uns hereinbricht. Das zählt zu den grundlegenden Merkmalen solcher Ereignisse: Sie sind unvorhersehbar, niemand erahnt sie, niemand hält sie für möglich, trotzdem passieren sie und verändern die Welt nachhaltig.
Auch Artificial Intelligence ist darauf nicht vorbereitet.
„Nicht mal Open AI kann Chat GPT stoppen“: Nach Facebook legt sich Schrems jetzt mit OpenAI an
Datenmissbrauch und Meinungsmanipulation
Nicht nur Künstler und Autoren sehen im „Abgreifen“ von Werken, die ihr geistiges Eigentum sind, massiven Datenmissbrauch. Das von ihnen geschaffene Werk stellt ihre Lebens- und Einkommensgrundlage dar, die bedroht ist, wenn es von AI bzw. deren Nutzern – ohne dafür eine Abgeltung zu leisten – verwendet wird.
In frei zugänglichen Daten finden sich viele Information zu Personen und Personengruppen, die diskriminierend, rassistisch, diffamierend usw. sind. Finden sich solche Informationen in den „Trainingsdaten“ von AI wieder, besteht die Gefahr, dass sich Diskriminierungen und Diffamierungen (und noch viele Schlimmeres) in den Ergebnissen und Antworten der AI unreflektiert fortsetzt. Dieses unreflektierte Übernehmen von Daten sehe ich als eines der Hauptprobleme von AI. Intelligente Menschen sind der AI hier weit voraus, und werden es noch lange bleiben.
ChatGPT plauderte private E-Mail-Adressen von Journalisten aus
KI und das ignorierte Copyright
Besonders problematisch ist das Nutzen von Personendaten in Bereichen, in denen AI womöglich wichtige Entscheidungen über Menschen trifft, wie beispielsweise, ob jemand einen Job oder einen Kredit bekommt, oder eine Krankenversicherung abschließen.
Eine Debatte entstand im Jahr 2023 über den Einsatz von AI beim Generieren von Forschungsergebnissen. Systeme wie ChatGPT können wertvolle Hilfe beim Auswerten großer Datenmengen leisten, aber die Grenze zur Fälschung ist fließend. Forscher ließen ChatGPT Studiendaten fabrizieren, die zu einem gewünschten Resultat passten. Derart könnte man selbst abwegige Studienergebnisse mit erfundenen Daten untermauern – und somit wissenschaftliche Fake News produzieren.
Ganz zu schweigen von militärischen Anwendungen von AI. Diese wohl heißeste Kartoffel in der AI-Diskussion greift auch der geplante AI Act der Europäischen Union nicht an, sondern macht (Warum wohl?) eine Bogen darum. Dabei wären gerade hier menschenachtende Regeln unverzichtbar.
Einigung zum „AI Act“: Künstliche Intelligenz soll stärker geregelt werden
AI Act: Regulierung mit wenig Treffsicherheit
AI schafft prekäre Jobs
Artificial Intelligence muss trainiert werden. Wussten Sie, dass wir Internetuser tagtäglich dabei helfen? Zum Beispiel, wenn wir im Zuge von Login-Vorgängen von „Google reCAPTCHA“ aufgefordert werden, bestimmte Dinge (Fahrräder, Treppenstufen, Brücken usw.) auf angezeigten Bildern zu identifizieren bzw. anzuklicken. Grundsätzlich dient dieses Verfahren zum Unterscheiden, ob der Login-Vorgang von einem Menschen oder von einem Computerprogramm bzw. Bot vorgenommen wird. Gleichzeitig dienen unsere Klicks aber dem Trainieren von AI.
In armen Ländern wie beispielsweise Kenia oder Kolumbien bearbeiten billige Arbeitskräfte, so genannten „Clickworker“, Millionen Fotos, Videos und Texte, aus denen AI-Systeme lernen. Solche Systeme sind dümmer als es der Hype vermuten lässt, sagt Milagros Miceli, Informatikerin und Soziologin am Weizenbaum-Institut in Berlin. Um einer AI zum Beispiel beizubringen, was eine Katze ist, muss man ihr so viele Beispiele wie möglich von einer Katze zeigen. Doch auf den Bildern zu beschreiben, was überhaupt eine Katze ist – das übernehmen die Clickworker.
Viele „Clickworker“ berichten von Ausbeutung, digitaler Überwachung und Perspektivlosigkeit. Arbeiter bekommen vielfach nur umgerechnet 1,20 Euro in der Stunde bezahlt. Die Arbeitsverhältnisse sind also prekär. Schätzungsweise zehn Millionen Menschen arbeiten weltweit an der Bearbeitung von Trainingsdaten für AI.
Im Sinne der ESG-Kriterien hat AI ein offensichtliches Problem mit dem „S“ für Soziales und Gesellschaft.
Zwischen Hype und Ausbeutung: „Klickarbeit“ für künstliche Intelligenz in Afrika
1.000 Stellen auf der Kippe? KI wird bei Klarna zum Jobkiller
Folgen für Jobs und Gehälter – IWF: KI droht Ungleichheit zu verschärfen
Silicon-Valley-Charme in Uganda: Google, NASA und BMW lassen ihre KI in Afrika trainieren
Eigener KI-Assistent Joule: Künstliche Intelligenz soll 8000 Mitarbeiter bei SAP ersetzen
Viele wichtige Daten sind nicht öffentlich
Die Algorithmen, auf denen AI aufbaut, „lernen“ aus allgemein verfügbaren Daten, oder werden, wie gerade beschrieben, von Internetusern und Clickworkern trainiert. Viele Informationen, die wir benötigen, um optimale Ergebnisse zu erzielen, sind allerdings nicht öffentlich. Als Beispiel kann ich meine Compliance Tätigkeit für konzessionierte Wertpapierdienstleister anführen.
Um das Erbringen von Wertpapierdienstleistungen gesetzeskonform im Sinne der vielen Regularien wie 2. EU-Finanzmarktrichtlinie und Wertpapieraufsichtsgesetz zu gestalten, reichen alleine die öffentlich verfügbaren Informationen nicht aus. Gesetze und Verordnungen geben ebenso wie Leitlinien von Aufsichtsbehörden nur oberflächliche Handlungsanweisungen.
Unverzichtbar sind Erfahrungswerte, die in der jahrelangen Praxis oder bei Vorort-Prüfungen der Behörden gesammelt werden – und die sind nicht öffentlich verfügbar. Gleiches gilt für andere, streng regulierte Themenbereiche wie Geldwäsche-Prävention sowie Datenschutz und IT-Sicherheit.
AI mag für das Zusammenfassen von Verordnungstexten, die gerne hunderte Seiten umfassen, hilfreich und zeiteffizient sein. Der alleinige Verlass auf die öffentlichen Informationen, auf die sich AI stützt, führt bei solch komplexen Compliance-Themen nicht zum gewünschten Ergebnis.
Dies auch, weil nicht alle Informationen, die sich ein AI-Tool aus dem Internet zusammenramscht, der Wahrheit entsprechen. Wie zum Beispiel mein Beitrag EU verbietet Klimawandel per Verordnung. Woher weiß AI, dass es sich um einen Aprilscherz handelt?
Wer übernimmt die Verantwortung?
Im Zusammenhang mit Compliance stellt sich mir auch die Frage, wer letztendlich die Verantwortung für Handlungen trägt, die auf Basis von AI-Ergebnissen getroffen werden. In meinem Fachbereich kann ich sagen: immer ein Mensch. Verlasse ich mich als Compliance Officer auf die Ergebnisse von AI, und liege ich damit nicht richtig, trage ich sowohl die Verantwortung wie auch die Konsequenzen. Weder gegenüber meinen Kunden noch gegenüber den Aufsichtsbehörden kann ich mich auf falsche AI-Ergebnisse ausreden.
Liegt AI bei der Wetterprognose daneben, ist das für uns nur unangenehm, Piloten hingegen werden das ganz anders sehen. Taugt der AI-generierte Schulaufsatz nichts, hagelt es halt eine schlechte Note. Aber wie handhaben Ärzte ihre persönliche Verantwortung, wenn sie womöglich lebenswichtige Entscheidungen für ihre Patienten auf Basis von AI-Daten treffen? Oder, noch drastischer, wer übernimmt die Verantwortung, wenn die AI-gesteuerte Drohne das falsche Ziel zerstört?
Können bzw. sollen wir AI-Ergebnisse ohne Prüfung durch menschliche Intelligenz einfach zur Kenntnis nehmen? Ich bin da sehr skeptisch.
Enormer Energieverbrauch
Im Kern der Sache basiert Artificial Intelligence auf enormer Rechenleistung. Mehr und mehr Server-Farmen werden aus dem Boden gestampft, die immer größere Mengen an wertvollen Ressourcen, allen voran Strom und (Kühl-)Wasser, benötigen. Schon heute ist das Internet, wäre es ein Staat, das Land mit dem zehngrößten Stromverbrauch der Welt. Tendenz steigend.
Zur Demonstration seiner Leistungsfähigkeit konkurrierte das Computerprogramm „Watson“ im Februar 2011 bei der Quizsendung „Jeopardy!“ mit zwei menschlichen Gegnern. Das System gewann das Spiel. Dabei verbrauchte „Watson“ 85.000 Watt, seine beiden menschlichen Konkurrenz-Gehirne hingegen nur jeweils 20 Watt.
Neuerdings wollen Suchmaschinen wie Google, Bing & Co. die Ergebnisse von Abfragen standardmäßig mit AI optimieren. Jede kleine Suche nach Kochrezepten, Sportergebnissen, Promi-News, Flugtickets, Bettwanzen (Platz 9 im deutschen Google Such-Ranking 2023) usw. lässt energiefressende Prozessoren heiß laufen, die mit großen Mengen Wasser gekühlt werden müssen.
Für viele Anwendungen von AI ist der Ressourcenverbrauch angemessen, weil wichtig, von Vorteil und an anderer Stelle ressourcensparend. Die AI-Maschinerie für jede der täglich zig Milliarden Abfragen anzuwerfen, ist jedoch wenig klima- und umweltfreundlich.
Im Sinne der ESG-Kriterien hat AI ein Problem mit dem „E“ für Environment bzw. Klima- und Umweltschutz.
Strom für Künstliche Intelligenz: Die Maschinen haben Hunger
Fast 30 Prozent mehr Emissionen: KI macht Microsoft zum Klimasünder
Datenzentren in Spanien verschlingen Trinkwasser
Künstliche Intelligenz: Der große Hunger der schlauen Maschinen
CO2-Bilanz: IT-Riesen kämpfen mit Stromhunger der KI
Kampf um die letzten Kraftwerke: Der KI-Boom gefährdet die globale Stromversorgung
Stromhungrige Rechenzentren: US-Atommeiler geht für Microsoft wieder ans Netz
Energiehunger: OpenAI wirbt für riesige Rechenzentren
Nein, ich sage es abschließend noch einmal, ich bin kein Gegner von Innovationen, ganz im Gegenteil. Den Hype rund um AI sowie ChatGPT & Co. kann ich nachvollziehen. AI ist eine faszinierende Entwicklung. Aber die vermeintliche Allwissenheit, die solchen Computerprogrammen zugeschrieben wird, und die beschriebenen Probleme, die mit AI einher gehen, machen mich auch skeptisch. Ich wünsche mir mehr Reflexion bei aktuellen und zukünftigen Einsatzzwecken.
Quellen:
- Raiffeisen Capital Management, Future Talk „Künstliche Intelligenz“, 28. September 2023
- tagesschau.de des Norddeutscher Rundfunk & Südwestrundfunk SWR
- PROFIL, Nr. 51, Dezember 2023
- Gerd Gigerenzer, „Klick – Wie wir in einer digitalen Welt die Kontrolle behalten und die richtigen Entscheidungen treffen“, C. Bertelsmann Verlag, 2021