Seminar
Format: 6 Doppelsitzungen (je 4,5 Stunden) oder alternierend 12 Einzelsitzungen (Theorie/Praxis)
Das Notebook kann hier ausprobiert werden:
Dieses Seminar untersucht generative KI nicht nur als technisches Werkzeug, sondern als politische und kulturelle Entität. In einer Verbindung aus kritischer Theorie und praktischer Arbeit entwickeln Studierende eine spekulative Kurzgeschichte und gewinnen dabei ein tieferes Verständnis davon, wie Large Language Models operieren.
Der Schreibprozess ist dabei konsequent als Human-in-the-Loop angelegt: Wir schreiben nicht mit der KI, sondern gegen sie, durch sie hindurch und über sie hinaus. In jeder Übung erzeugt das Modell Entwürfe — Plots, Figuren, Welten, Stile —, die wir anschließend analysieren, auf ihre Muster und blinden Flecken befragen und gezielt überarbeiten. Die produktive Differenz zwischen dem, was die Maschine vorschlägt, und dem, was wir als Autor:innen daraus machen, steht im Zentrum. Wir erkunden, wie Prompts, Datensätze und Machine-Learning-Algorithmen bestimmte Weltbilder, Affekte, Stile und „Vibes" produzieren — und wie diese in generativen Outputs sichtbar gemacht, kritisch bearbeitet und durch eigene ästhetische Entscheidungen transformiert werden können.
Das Ergebnis ist nicht nur eine Kurzgeschichte, sondern ein dokumentierter Prozess der kritischen Auseinandersetzung: Wo reproduziert das Modell Klischees? Wo überrascht es? Wo muss ich als Autor:in eingreifen — und was genau ist dieser Eingriff?
- Präsentation von Texten und Übungsergebnissen im Seminar (50%)
- Textmappe mit:
- Spekulative Kurzgeschichte (6–10 Seiten)
- Prozess-Log (dokumentierte Prompts, Entscheidungen, Iterationen)
- Reflektierende Einordnung mit Theoriebezug (3–5 Seiten)
- Appendix: Generierter/überarbeiteter Text mit Kennzeichnung der KI-Anteile
- Abgabe: 15. März 2026 via MyStudy
Vormittag: Einführung in Critical AI Studies, KI als historisches Narrativ, Stochastic Parrots
Nachmittag: Spekulative Fiktion als kritische Praxis, Screening (Black Mirror / Coded Bias)
Übungen: Instagram-Ethnografie @evolving.ai, Brainstorming für Schreibprojekt
Texte: Ali et al. (2023), Bender et al. (2021), Freedman (2000), Coleman (2023)
Vormittag: Daten als politisches Objekt, Taxonomien, Excavating AI
Nachmittag: Worldbuilding mit LLMs, Vorstellung der Brainstorming-Ergebnisse
Übungen: Civil Comments-Datensatz analysieren, Weltenbau-Prompts, KI als kritische Lektorin
Texte: Crawford & Paglen (2019), D'Ignazio & Klein (2020)
Vormittag: Halluzinationen, Korrelation vs. Kausalität, epistemologische Indifferenz
Nachmittag: Plotentwicklung mit LLMs, Kausalitäts-Stresstest
Übungen: Semantle spielen, Word2Vec analysieren, Plotstruktur entwickeln
Texte: Pasquinelli (2019), Amoore (2020), Fredrikzon (2025), Fletcher (2021)
Doppelsitzung 4 — But Do They Really Care About Us? Chatbots, Artificial Empathy & Character Development
Vormittag: Genealogie der Chatbots, ELIZA, ELIZA-Effekt, artifizielle Empathie
Nachmittag: Figurenentwicklung, Bias-Audit, Stereotypen-Radar
Übungen: ELIZA hacken & Persona verändern, Charakter-Audit, Persona-Interview
Texte: Weizenbaum (1966), Bassett (2019)
Vormittag: Ästhetik von LLMs, kulturelle Homogenisierung, die „LLM voice"
Nachmittag: Stilwerkstatt – Stilanalyse, Stil-Transfer, Constraint-based Prompting
Übungen: Blindtest (Mensch vs. KI), Hemingway/Thomas Mann-Stilexperiment, eigene Stilvorgabe entwickeln
Texte: Manovich & Arielli (2021–24)
Vormittag: Ressourcenverbrauch, Lieferketten, unsichtbare Arbeit hinter KI
Nachmittag: Textpräsentationen, Abschlussreflexion
Übungen: Ressourcenverbrauch berechnen, Anatomie eines LLMs (Gruppenarbeit), Präsentationen
Texte: Crawford (2021), Perrigo (2023), Penn (2023)
| Datei | Inhalt |
|---|---|
| 01_Narratives_of_AI.md | Doppelsitzung 1: Einführung Critical AI Studies, Spekulative Fiktion, Brainstorming |
| 02_How_to_Do_Things_With_Datasets.md | Doppelsitzung 2: Datensätze & Bias, Civil Comments, Worldbuilding |
| 03_AI_See_Ghosts.md | Doppelsitzung 3: Korrelation & Halluzination, Plotentwicklung |
| 04_But_Do_They_Really_Care_About_Us.md | Doppelsitzung 4: ELIZA, Chatbots, Figurenentwicklung & Charakter-Audit |
| 05_Glitch_World.md | Doppelsitzung 5: KI-Ästhetik, Stilanalyse, Constraint-based Prompting |
| 06_AI_is_A_Piece_of_Work.md | Doppelsitzung 6: Ressourcenverbrauch, Präsentationen, Abschlussreflexion |
- LLMs: DSGVO-konforme Modelle über Uni-Infrastruktur (bevorzugt), alternativ kommerzielle Anbieter (ChatGPT, Claude, Gemini) mit deaktivierten Trainingsoptionen; Chat AI über Academic Cloud
- Datensätze: Hugging Face (Civil Comments u.a.)
- Visualisierung: TensorFlow Projector (Word2Vec), Semantle
- Code: Google Colab (ELIZA-Notebook)
- Lektüretool: Social-Reading-Tool für gemeinsame Annotation
- Bildgenerierung: DALL-E, Midjourney, Stable Diffusion (optional)
Jede Sitzung folgt dem Dreischritt Theorie → Praxis → Reflexion. Das Seminar setzt auf Lernen durch Machen, eine kontinuierliche Textentwicklung über das gesamte Semester, explizite Prompt-Strategien und eine produktive Fehlerkultur. Der Prozess (dokumentiert im Prozess-Log) ist integraler Bestandteil des Lernens.
Zentral ist das Prinzip Human-in-the-Loop: In jeder Übung generiert die KI Material, das anschließend kritisch analysiert, auf Muster und Bias untersucht und durch eigene ästhetische Entscheidungen überarbeitet wird. Die Studierenden lernen nicht, KI möglichst effizient einzusetzen, sondern die Differenz zwischen maschinellem Output und eigenem Schreiben produktiv zu nutzen — als Ort der Reflexion, der Intervention und der Autorschaft.
Stand: Februar 2026 — Version 1.0