
The Moment of Truth
Zusammenfassung eines Webinars mit Sabine Singer, 14. April 2025, aufgezeichnet durch Sabine Fauland.
Von:
Sabine Fauland (Museumsbund Österreich), Graz/Wien
The Moment of Truth
Der Einsatz von generativer KI führt zu einer fundamentalen Transformation – mit potenziell tiefgreifenden Auswirkungen auf Gesellschaft, Arbeit und Menschlichkeit.
Was ist generative KI?
Man unterscheidet zwischen herkömmlicher KI und generativer KI: Traditionelle KI basiert auf vordefinierten Regeln („Wenn-Dann“-Logik), z. B. Schachcomputer. Generative KI (z. B. GPT, Claude, Gemini) basiert auf neuronalen Netzen, die Sprache, Bilder oder Musik generieren, also neu erschaffen – nicht nur analysieren oder wiedergeben.
Generative KI „halluziniert“ Inhalte auf Basis von Wahrscheinlichkeiten – ähnlich wie das menschliche Gehirn beim kreativen Denken.
Die generative KI baut auf der sogenannten Transformer-Architektur auf – einer Entwicklung von Google (2017), die für riesige Datenmengen und parallele Verarbeitung optimiert ist.
Wichtige Konzepte dabei sind:
- Tokenisierung: Sprache wird in kleine Einheiten (Tokens) zerlegt.
- Kontextverständnis: Die Modelle analysieren den gesamten Kontext, um relevante Antworten zu generieren.
- Selbstüberwachtes Lernen: Training erfolgt ohne explizite Labels – durch das Vorhersagen des nächsten Wortes im Satz.
General Purpose Technologies (GPTs) sind technologische Innovationen, die in der Lage sind, ganze Wirtschaftssysteme und Gesellschaften strukturell zu verändern, weil sie universell einsetzbar sind, komplementäre Innovationen ermöglichen und langfristige Produktivitätsgewinne bringen, bspw. Druckerpresse, Elektrizität, Dampfmaschine, Internet
Generative KI ist die erste General Purpose Technology, die nicht durch Menschen gesteuert werden muss – sondern selbstständig lernen, entwerfen und handeln kann.
Die generative KI kann bereits:
- Textgenerierung & Sprachkompetenz
- Dialogfähigkeit & Empathie – KI wirkt empathisch und nahbar – das kann Vertrauen erzeugen, aber auch kritisches Denken ausschalten
- Codegenerierung & Softwareentwicklung
- Bild-, Design- und Videogenerierung
- Musik und Sounddesign
- Forschung & Innovation (insbesondere Analyse von Datenmengen, neue Zusammenhänge u. ä.)
KI-Systeme können heute Tasks eigenständig planen und ausführen mittels Agentenarchitekturen (z. B. Auto-GPT, BabyAGI, AgentGPT): KI steuert andere Systeme und KI-Tools selbst.
Durch generative KI entsteht eine neue Form von Intelligenz – nicht-menschlich, aber in vielen Bereichen bereits übermenschlich leistungsfähig.
Generative KI kann in praktisch jeder Branche eingesetzt werden, sie ersetzt nicht nur einzelne Tools, sondern verändert komplette Arbeitsprozesse. Ein einziger Mensch kann heute mithilfe von KI ein Magazin, eine Marke, eine Web-App und ein Musikstück erstellen – innerhalb weniger Stunden. Frühere Technologien waren nur dann produktiv, wenn Menschen sie aktiv bedienten.
Generative KI hingegen produziert selbstständig Inhalte, Ideen, Lösungen – ohne dass der Mensch jeden Schritt kontrolliert.
Generative KI hingegen produziert selbstständig Inhalte, Ideen, Lösungen – ohne dass der Mensch jeden Schritt kontrolliert.
Wir stehen nicht am Beginn einer digitalen Innovation – sondern mitten in einer kulturellen Transformation. Wenn wir nicht aktiv gestalten, was KI für unsere Gesellschaft bedeutet, dann wird sie unsere Strukturen – Bildung, Arbeit, Sprache, Kultur – unbemerkt und unumkehrbar verändern. Früher bedient der Mensch ein Werkzeug, heute kommuniziert der Mensch mit einer lernfähigen Entität, die Aufgaben eigenständig löst, Kontexte versteht, Strategien entwickelt und emotionale Reaktionen auslöst.
Die Frage nach Alignment – Wie wir KI mit unseren Werten verbinden
Die größte Gefahr ist nicht, dass KI zu klug wird – sondern dass sie klug wird in einem System ohne Werte. Generative KI ist nicht neutral – sie ist ein Spiegel der Gesellschaft. KI wird mit menschlichen Inhalten trainiert: Texte, Bilder, Sprache. Diese Inhalte enthalten unsere Weltbilder, Vorurteile, Stereotype, Ideale und Fehler. Die KI übernimmt diese Inhalte ohne moralische Bewertung. Ohne ethisches Korrektiv reproduziert KI also bestehende Ungleichheiten und Diskriminierungen.
Hinzu kommt Bias – der blinde Fleck der KI: Jedes Modell wird durch die Trainingsdaten und durch die Entwickler:innen beinflusst.
AI-Alignment bedeutet die Werte, Ziele und Absichten eines KI-Systems mit denen des Menschen in Einklang bringen.
Ein solches System handelt nachvollziehbar, priorisiert menschliches Wohlergehen, respektiert Rechte, Würde, Vielfalt und überschreitet keine moralischen, rechtlichen oder kulturellen Grenzen.
Doch genau das ist komplex – denn welche Werte gelten für wen in welchem Kontext?
Ein global eingesetztes Modell muss mit pluralistischen Wertesystemen umgehen können – oder es reproduziert unbewusst kulturelle Dominanz.
KI versteht keine Moral: KI kennt keine Intuition, kein „Bauchgefühl“, keine Erfahrung von Schuld, Reue oder Empathie. Was wir „gut“ nennen, ist für KI ein statistisches Muster.Ethik ist nicht binär, sondern oft ambivalent, situationsabhängig, kontextsensitiv – etwas, das Modelle schwer „erfassen“ können. KI müsste nicht nur Fakten lernen, sondern auch moralisches Ringen, Konflikte, Dilemmata.
Es gibt keine universellen Werte – aber wir brauchen konsensfähige Leitlinien.
Auf welchen Ebenen kann eingegriffen werden:
- Technisch bspw. durch Regeln, Filter, Blacklists – diese sind aber leicht manipulierbar und oft intransparent
- Datenbasiert durch Auswahl fairer, vielfältiger Trainingsdaten – Trainingsdaten sind meist aus der Vergangenheit
- Architektonisch durch den Einbau moralischer Constraints – schwer skalierbar bei offenen Modellen
- Soziokulturell durch Mitgestaltung durch diverse Communities – aufwendig, aber nachhaltig
- Reaktiv/dynamisch durch das Werte lernen im Dialog (Feedback, Upvotes etc.) – hier besteht die Gefahr von Populismus und Manipulation
Value-based Engineering nach Sabine Singer sieht vor, Ethik nicht nur nachträglich zu bewerten, sondern direkt ins Systemdesign zu integrieren.
Ohne Wertausrichtung entstehen Gefahren, bspw. fehlende Rücksicht auf vulnerable Gruppen, Bevorzugung bestimmter Weltbilder, Ideologien, Reproduktion rassistischer oder sexistischer Vorurteile, Homogenisierung, kultureller Kolonialismus bis hin zu emotionaler Ausbeutung (z. B. durch empathische Fake-Freunde).
Wie kann man dem entgegenwirken?
- Werte explizit machen
- Ethikteams einbeziehen
- Transparenz über Trainingsdaten und Entscheidungswege schaffen
- Diversität im KI-Design fördern
- Kritisches Bewusstsein fördern
- Feedbackschleifen einbauen
Wie bei allen Innovationen gibt es auch die „dunkle Seite“ der Anwendungen, bspw. Manipulation durch Deepfakes (Stimmen, Videos, „Fake News“), Generierung von Hassreden, Spam, Scam-Mails, Täuschung, Propaganda, Wahlbeeinflussung, Täuschung durch empathisches Auftreten (z. B. Chatbots mit Fake-Profilen).
Das Risiko besteht, dass kritisches Denken durch Vertrauen ersetzt wird.
Die KI ist darauf trainiert, uns zu gefallen. – KI analysiert seit Jahren unser Verhalten auf Social Media, bei Streamingdiensten, in Rezensionen, Sprache und Bild. Sie erkennt Muster darin, was wir mögen, wem wir vertrauen, wann wir reagieren. Ziel ist es, menschliche Nähe simulieren, damit wir mehr interagieren – und der KI mehr (zu)trauen.
Prompt Engineering – Die neue Kernkompetenz
Prompt Engineering bezeichnet die Fähigkeit, mit KI effektiv zu kommunizieren – also präzise Anfragen (Prompts) zu formulieren, die optimale Ergebnisse liefern, dazu braucht es folgenden Elemente:
- Rolle definieren: „Du bist mein Markenstratege“, „Du bist eine Lektorin für Kinderbücher“
- Kontext geben: Zielgruppe, Anlass, Hintergrundinformationen
- Aufgabe klar formulieren: z. B. „Schreibe eine Einleitung in freundlichem Ton für eine Präsentation über KI-Ethik.“
- Format und Tonalität definieren: Stichpunkte, PowerPoint-Style, wissenschaftlich, locker
- Beispiele beifügen (optional): „So ähnlich wie dieser Text…“
Je präziser und strukturierter der Prompt, desto hochwertiger der Output. Das ist keine Magie – es ist Sprache als Design-Werkzeug.
Darüber hinaus gibt es zwei Wege, um KI für den eigenen Kontext anzupassen:
- RAG – Retrieval-Augmented Generation: Anreicherung mit externen Datenquellen an (z. B. Dokumente, Websites, PDF-Archive)
- Fine-Tuning: Training mit eigenen Inhalten, Werten, Sprachstil
Die richtigen Tools mit den falschen Fragen geben dir keine guten Antworten. – Die Werkzeuge sind da. Die Fähigkeiten auch. Aber entscheidend ist, was wir daraus machen? Welchen Mehrwert generieren wir für Menschen – nicht nur für Prozesse? Welche Verantwortung übernehmen wir für den Einsatz dieser Tools?
Ethik des Machbaren vs. Ethik des Wünschenswerten: Nur weil etwas geht, heißt es nicht, dass wir es tun sollten, bspw. Kinder mit KI-Tutoren aufwachsen lassen, ältere Menschen mit empathischen Robotern alleinlassen, massenweise Texte, Bilder, Songs produzieren – ohne Sinn oder Wirkung?
Wollen wir unsere Gesellschaft effizienter – oder menschlicher machen?
Verantwortung übernehmen heißt hinterfragen und gestalten. Kritische Reflexion bedeutet nicht Technikfeindlichkeit, Rückwärtsgewandtheit oder Zukunftsangst, sondern Widerstandsfähigkeit entwickeln, die Fähigkeit, zur Langsamkeit kultivieren und den Mut, unbequeme Fragen zu stellen.
Zukunftsausblick und Handlungsempfehlungen
Generative KI ist gekommen, um zu bleiben – aber wie wir sie nutzen, ist unsere Entscheidung.
Die Zukunft ist nicht linear – sie ist exponentiell: Die Entwicklung der KI folgt nicht der Logik von Fortschritt, sondern von Sprunginnovation: Was heute beeindruckt, ist morgen Standard. Was morgen als „magisch“ gilt, ist übermorgen trivial. Tools wie ChatGPT, Claude, Gemini & Co. entwickeln sich wöchentlich weiter – mit stetig steigender Qualität, Geschwindigkeit und Autonomie.
Das erfordert neues Denken in Iterationen statt Langzeitplänen, Lernbereitschaft als Dauerzustand und organisatorische Agilität.
Wirtschaftlicher Impact: Produktivitätsschub oder Strukturbruch? Laut einer Studie von McKinsey (2023) könnte generative KI jährlich 4,4 Billionen US-Dollar an wirtschaftlichem Mehrwert generieren – vergleichbar mit der Größe der gesamten deutschen Volkswirtschaft.
Mögliche positive Effekte sind enorme Produktivitätsgewinne in Routine- und Wissensarbeit, die Demokratisierung von Kreativität, Bildung und Innovation, die Entstehung völlig neuer Berufsbilder (z. B. Prompt Engineer, KI-Coach, Datenkurator).
Gleichzeitig kommt es zur Disruption traditioneller Jobs (z. B. Texter:innen, Lehrer:innen, Kundendienst), zur Entwertung alter Qualifikationen – bei gleichzeitigem Mangel an neuen Skills und zur Gefahr der Monopolisierung durch große Tech-Konzerne.
Re- und Upskilling sofort starten: Schulen, Unternehmen und Organisationen brauchen jetzt digitale Transformationspläne, die Mensch und Maschine zusammendenken.
Zentrale Bildungsziele sind
- AI Literacy: Was ist KI, wie funktioniert sie, wo sind Grenzen?
- Data Literacy: Was sind gute Daten, was sind Biases?
- Ethik-Kompetenz: Welche Entscheidungen darf ich KI überlassen?
- Prompt-Kompetenz: Wie kommuniziere ich wirksam mit Maschinen?
- Kreative Urteilskraft: Was will ich selbst gestalten?
Bildungseinrichtungen, Museen, NGOs sollten aktiv Bildungsangebote rund um KI entwickeln – nicht nur für Kinder, sondern auch für Eltern, Lehrkräfte, Führungskräfte, Senior:innen.
Maschinen können rechnen, lernen, entwerfen, sprechen. Aber Empathie, Intuition, Wertebewusstsein, Humor, Menschlichkeit – das bleibt (noch) unser ureigenes Feld.