<< Museumspraxis
AI-Literacy
Zusammenfassung eines Webinars mit Vroni Hackl, 3. März 2025, aufgezeichnet durch Sabine Fauland.
Von: Sabine Fauland (Museumsbund Österreich), Wien

Begriffsklärung und historische Entwicklung 

Hat KI das Potenzial, die Welt zu verändern? Mit dem Internet gingen die Kosten für die Distribution von Inhalten gegen Null. Mit Künstlicher Intelligenz gehen die Kosten für die Erstellung von Inhalten gegen Null.
 
Der Begriff Künstliche Intelligenz wurde 1956 während der Dartmouth Conference geprägt. Ziel war es damals, menschliche Intelligenzleistungen zu simulieren. Das Dartmouth Summer Research Project on Artificial Intelligence wurde von Oliver Selfridge, Nathaniel Rochester, Ray Solomonoff, Marvin Minsky, Trenchard More, John McCarthy und Claude Shannon eingereicht, Gelder sollten eingeworben werden. Die Einreichenden haben schon grundlegende Konzepte für künstliche neuronale Netzwerke entwickelt. Aber erst Fortschritte in der Rechenleistung (GPU-Technologie) und die Verfügbarkeit großer Datenmengen (Big Data) haben KI-Modelle in den letzten zwei Jahrzehnten massentauglich gemacht.
 
Künstliche Intelligenz als Oberbegriff bezeichnet Computersysteme, die menschenähnliche Intelligenzleistungen erbringen können. Es bleibt eine Maschine, die von Menschen bedient wird.
 

Was bedeutet AI Literacy? 

Das Al Literacy Heptagon nach Vroni Hackl umfasst sieben Perspektiven:
 
  • Technisches Know-how (Technical Knowledge and Skills)
  • Anwendungskenntnisse (Application Proficiency)
  • Kritisches Denken (Critical Thinking Ability)
  • Integrationsfähigkeit (Integration Skills)
  • Rechtskenntnisse (Legal and Regulatory Knowledge)
  • Ethik (Ethical Awareness and Reasoning)
  • Soziale Kompetenz (Social Impact Understanding)
 
Nicht alle Perspektiven müssen auf Expert:innenlevel beherrscht werden. Für verschiedene Anwendungsgebiete sind unterschiedliche Perspektiven Voraussetzung. 
 
 

Funktionsweise generativer KI

Es gibt einen Unterschied zwischen Narrow AI — spezialisierte Systeme, die eine spezifische Aufgabe übermenschlich gut lösen – und General AI – eine hypothetische Form der KI, die menschenähnliche allgemeine Intelligenz besitzt.
Eine General AI wäre in der Lage, wie ein Mensch neue Aufgaben ohne vorheriges Training zu lernen. Aktuell existiert keine echte General AI, sondern nur spezialisierte KI-Modelle, die durch ihre Trainingsdaten begrenzt sind.
 
Außerdem unterscheidet man zwischen Open Source vs. Closed Source KI:
  • Open Source KI (z. B. Mistral, LLaMA) ermöglicht eine transparente Nutzung und individuelle Anpassungen, birgt jedoch Risiken im Missbrauch (z. B. Bild-KI und Deepfake-Erstellung).
  • Closed Source KI (z. B. OpenAI, Google Gemini) bietet mehr Moderation und Kontrolle, ist aber weniger transparent und kommerziell orientiert
 
Auf Hugging Face sind viele Open Source Systeme gelistet. Auf der Webseite There is an AI for that findet man über 30.000 Tools für die unterschiedlichsten Anwendungsgebiete.
Eine Tool-Übersicht von Veronika Hackl gibt es auf ihrem >>> Padlet.
 
 

Gnerative KI-Tools und ihre Funktionsweise

Ein Tool, mit dem besonders viele Personen arbeiten, ist ChatGPT, ein generatives KI-Modell.
 
Generative KI-Modelle wie GPT sind vortrainierte Sprachmodelle (Pre-trained Transformer), die auf Basis riesiger Datenmengen Muster der Sprache lernen.
Diese Modelle haben ein festgelegtes Wissensniveau (Knowledge Cutoff) und können keine neuen Informationen nach ihrem Trainingszeitpunkt verarbeiten, es sei denn, sie greifen auf externe Datenbanken oder das Web zurück (z. B. Perplexity AI).
 
ChatGPT arbeitet mit einer Vielzahl von Daten, die im Internet zur Verfügung gestellt wurden: Wikipedia, Bücher, Blogs, Datensammlungen, aber auch Soziale Medien, Foren usw. Die Trainingsdaten enthalten auch Fehlinformationen, Vorurteile (Bias) und veraltete Fakten. Das System wird nicht während der Nutzung der traininert. Es werden Daten gesammelt, um sie zu einem späteren Zeitpunkt für das Training zu nutzen.
 
Die Erstellung eines Tools wie ChatGPT erfolgt in mehreren Phasen und nutzt verschiedene Methoden, um die Qualität der Textgenerierung zu optimieren. ChatGPT ist eine Anwendung, die auf ein großes Sprachmodell zugreift. Dieses große Sprachmodell ist vortrainiert (Pre-Training). Anschließend wurde das Sprachmodell für die Anwendung in ChatGPT mit einem Fine-Tuning weiter für seinen Zweck vorbereitet („You are a helpful assistant“). Eine Methode, die genutzt wird, um Modelle zu verbessern ist  Reinforcement Learning from Human Feedback (RLHF – Verstärkungslernen durch menschliches Feedback). 
 
Natürliche Texte werden verarbeitet (Natural Language Processing). In diesem Kontext werden beispielsweise Texte in Tokens zerlegt. 1.000 Tokens entsprechen rund 800 Wörtern. 
 
Kontextfenster: Sprachmodelle speichern den bisherigen Gesprächsverlauf nur temporär. Ältere Informationen „verblassen“, sobald das Kontextfenster überschritten wird. Das Kontextfenster umfasst eine bestimmte Anzahl an Tokens, zum Beispiel 200.000 bei Claude. Es hilft, wenn man immer wieder Zusammenfassungen des Gesprächs verlangt.
 
Obwohl ChatGPT nach diesen intensiven Trainingsphasen leistungsfähig ist, gibt es klare Grenzen:
 
1  Halluzinationen & Fehlinformationen
Das Modell kann überzeugend klingende, aber falsche Informationen generieren.
Grund: Das Modell hat kein „Verständnis“, sondern basiert nur auf statistischen Wahrscheinlichkeiten.
 
2  Bias & Verzerrungen
Weil die Trainingsdaten aus dem Internet stammen, können Vorurteile oder kulturelle Verzerrungen auftreten.
Beispiel: Wenn Frauen in IT-Berufen in den Trainingsdaten unterrepräsentiert sind, könnten generierte Texte unbewusst Stereotype verstärken.
 
3  Wissenslücken nach dem Training
Das Modell lernt nicht in Echtzeit und kann nur Informationen aus externen Quellen (z. B. durch Suchmaschinen-Integration) ergänzen.
 
4  Energie- und Ressourcenverbrauch
Das Training von GPT-3 soll mehrere Millionen Dollar gekostet haben und verbrauchte 3,5 Millionen Liter Wasser für die Kühlung und enorme Mengen an Strom [1] (neuere Quelle von Januar 2025)
 
Beispiel: Durch die umfangreichen Trainingsdaten, die unter anderem aus alten digitalisierten Büchern und Archiven stammen, hat sich die Häufigkeit der Nutzung des Wortes „meticulous“ nach der Einführung von ChatGPT um den Faktor 35 erhöht [2], obwohl es bis dorthin fast gänzlich aus dem Sprachgebrauch verschwunden war. Dies zeigt, dass KI-Modelle nicht nur bestehende Sprachmuster reflektieren, sondern auch die Art und Weise beeinflussen, wie Sprache in der Gegenwart verwendet wird​
 
 

Training neuronaler Netzwerke am Beispiel von „Quick Draw“

Wie neuronale Netze Muster in Daten erkennen und daraus lernen, zeigt Quick Draw von Google Arts & Culture.
 
1. Grundprinzip von neuronalen Netzen
Neuronale Netze bestehen aus mehreren Schichten:
  • Input-Layer (Eingangsschicht): Hier werden die Rohdaten eingegeben, z. B. eine gezeichnete Skizze eines Skorpions.
  • Hidden Layers (Versteckte Schichten): Diese Schichten erkennen abstrakte Merkmale aus den Eingabedaten und leiten sie weiter.
  • Output-Layer (Ausgangsschicht): Das System gibt eine Klassifikation aus, z. B. „Skorpion erkannt“ oder „nicht erkannt“.
 
Die Tiefe eines neuronalen Netzes hängt von der Anzahl der Hidden Layers ab. Je mehr Schichten es gibt, desto komplexere Muster kann das Netz erkennen.
 
2. Wie lernt das Netzwerk?
Das neuronale Netz wird mit einer großen Menge an Zeichnungen von Menschen trainiert. Es erkennt wiederkehrende Muster, um z. B. festzustellen, wie die meisten Menschen einen Skorpion zeichnen.
Fehlerrückführung (Backpropagation):  Nach jedem Durchlauf bewertet das Netz seine eigenen Ergebnisse. Wenn es eine falsche Vorhersage trifft, werden die internen Gewichtungen angepasst, um zukünftige Fehler zu minimieren.
 
Schwellenwerte für Aktivierung: Das System entscheidet auf Basis einer Schwelle, ob ein bestimmtes Muster einem bekannten Objekt entspricht. Ähnlich wie in biologischen Nervenzellen wird ein Signal erst weitergegeben, wenn eine bestimmte „Erregungsschwelle“ überschritten wird.
 
3. Herausforderungen beim Training
  • Missklassifikationen: Das System kann z. B. einen gezeichneten „Skorpion“ fälschlicherweise als „Halskette“ interpretieren.
  • Bekanntheitsgrad von Konzepten: Bekannte Objekte wie „Haus“ oder „Auto“ sind für das System leichter zu erkennen als seltene oder individuelle Zeichnungen.
  • Datenbias: Falls ein Objekt in den Trainingsdaten nicht ausreichend repräsentiert ist, fällt es dem Modell schwer, es richtig zu erkennen.
 
4. Relevanz für KI-gestützte Anwendungen 
Sprachmodelle funktionieren ähnlich, indem sie statistische Wahrscheinlichkeiten für bestimmte Wortkombinationen berechnen.
Die Qualität der Antworten hängt stark von der Vielfalt und Qualität der Trainingsdaten ab.
Menschliches Feedback (wie in Reinforcement Learning from Human Feedback, RLHF) verbessert die Präzision der Modelle.
Neuronale Netze lernen durch Wiederholung und Fehlerkorrektur. Sie können komplexe Muster erkennen, sind jedoch anfällig für Verzerrungen und benötigen große Mengen an Trainingsdaten​.
  

Wahrnehmung von KI-generierten Inhalten 

Uncanny Valley-Effekt: Menschen empfinden KI-generierte Inhalte oft als verstörend, wenn sie eine gewisse Nähe zur Realität erreichen, aber noch als künstlich erkennbar sind.
Beispiel: Die virtuelle Influencerin Emma, die für den Deutschlandtourismus wirbt, erzeugte kontroverse Reaktionen – einige empfanden sie als innovativ, andere als „gruselig“ und unpassend.
In anderen Kontexten spielt es keine Rolle, ob KI verwendet wurde. Es kommt immer auf den Kontext an, Museen bspw. vermitteln eine hohe Glaubwürdigkeit, hier ist entscheidend, ob und wie KI eingesetzt wird.
 
 

Praktischer Einsatz von KI in der Kommunikation 

  • Textgenerierung: KI kann unterstützend für redaktionelle Arbeit eingesetzt werden, erfordert aber eine menschliche Endkontrolle. Die Verwendung von KI muss nicht angegeben werden, wenn die Texte redaktionell bearbeitet wurden.
 
  • Bild- und Videogenerierung: Modelle wie Flux oder midjourney können realistische Bilder erstellen, erfordern jedoch ethische Abwägungen. Bei der Verwendung von KI-generierten Bildern besteht eine Kennzeichnungspflicht.
 
  • Suchmaschinen mit KI: Perplexity AI kombiniert Web-Crawling mit KI-gestützten Zusammenfassungen und könnte Google als Informationsquelle Konkurrenz machen (Retrieval-Augmented Generation), Google NotebookLM oder Custom GPTs, Microsoft Azure AI bietet Retrieval-gestützte Modelle für den Unternehmenseinsatz an. Retrieval-Systeme ermöglichen es, dass ein KI-Chatbot auf firmeneigene Dokumente zugreifen kann, um spezifische Fragen korrekt zu beantworten
 
 

Grenzen von KI-Systemen und Herausforderungen

 
Datenschutz: Umgang mit personenbezogenen Daten und Identitätsfälschungen
 
1. Speicherung und Nutzung von Daten durch KI-Systeme
Daten, die in KI-Modelle eingegeben werden, können gespeichert und für das Training zukünftiger Modelle verwendet werden. Dies betrifft insbesondere freie und kostenlose Accounts von KI-Diensten wie ChatGPT, Claude oder Mistral.
Unternehmen sollten daher besonders vorsichtig sein, welche sensiblen Daten sie in KI-Systeme eingeben.
Bezahlte oder Enterprise-Versionen bieten oft mehr Datenschutz, da die Anbieter in der Regel vertraglich zusichern, dass Nutzer:inneneingaben nicht für weiteres Training verwendet werden​.
 
2. DSGVO-Konformität und KI-Nutzung
Die Datenschutzgrundverordnung (DSGVO) spielt eine entscheidende Rolle beim Einsatz von KI, insbesondere in Unternehmen.
Microsoft Azure Cloud bietet KI-Modelle an, die DSGVO-konform betrieben werden können, da die Datenverarbeitung innerhalb der EU stattfindet​.
Open-Source-KI-Modelle, die lokal betrieben werden, stellen eine Alternative dar, da sie ohne Datenweitergabe genutzt werden können.
 
3. Vertrauen und Lizenzbedingungen
Nutzer:innen müssen sich auf die Einhaltung der Datenschutzrichtlinien der Anbieter:innen verlassen, da es für Endnutzer:innen kaum Möglichkeiten gibt, die tatsächliche Datennutzung zu überprüfen.
Wichtiger Tipp: Bevor man eine KI nutzt, sollte man die Lizenzbedingungen genau lesen, um zu verstehen, ob und wie die eingegebenen Daten weiterverwendet werden​.
 
4. Unternehmenslösungen und Datenschutz
Viele Unternehmen nutzen spezialisierte KI-Anwendungen, die auf ihren eigenen Servern laufen, um Datenlecks zu vermeiden.
Externe Cloud-Dienste sollten nur mit einer klaren Datenschutzstrategie genutzt werden, insbesondere wenn es um geschäftskritische oder personenbezogene Daten geht.
 
 
Transparenz
 
1. Kennzeichnung von KI-generierten Inhalten
KI-generierte Inhalte nach dem European AI Act ab August 2026 explizit als solche gekennzeichnet werden.
Dies betrifft insbesondere Texte, Bilder und Videos, die in Bereichen von öffentlichem Interesse veröffentlicht werden.
Unternehmen und Redaktionen stehen vor der Herausforderung, klare Richtlinien für die Kennzeichnung zu etablieren.
Ein einfacher Hinweis könnte lauten: „Dieser Text/Bild/Video wurde mithilfe von KI erstellt“​.
 
2. Transparenz und ethische Dimensionen
Changwu Huang u. a. streicht im 2022 erschienen Artikel An Overview of Artificial Intelligence Ethics folgende ethischen Dimensionen der KI hervor, die auch Transparenz betreffen:
 
  • Individuum: Datenschutz und Datensicherheit, Freiheit und Autonomie, Auswirkungen auf die menschliche Würde
  • Gesellschaft: Fairness und Gerechtigkeit (z. B. Vermeidung von Diskriminierung durch KI-Entscheidungen), Transparenz in algorithmischen Systemen, Überwachung und Kontrolle von KI-Technologien, Demokratische Stabilität und der Umgang mit KI-induzierten Jobverlusten
  • Umwelt: Nachhaltigkeit und Energieverbrauch durch KI, Auswirkungen auf natürliche Ressourcen​ 
 
3. Redaktionsverantwortung bei KI-Texten
Die Verantwortung für einen Text oder ein Bild liegt bei den Menschen, die KI-generierte Inhalte veröffentlichen.
Falls KI-generierte Texte von Menschen geprüft und überarbeitet werden, kann dies rechtlich eine Kennzeichnungspflicht umgehen.
Beispiel: Wenn eine KI einen Artikel erstellt, der von einem Redakteur bearbeitet wird, kann dieser als menschlich verfasst deklariert werden.
Die genauen Anforderungen und Ausnahmen werden sich erst mit der vollständigen Implementierung des EU AI Act und seiner nationalen Umsetzungen klären.​
 
4. Black-Box-Problematik und Transparenz von KI-Systemen
Ein zentrales Problem bleibt die mangelnde Nachvollziehbarkeit vieler KI-Entscheidungen. Black-Box-Modelle(undurchsichtige Algorithmen) erschweren es, zu verstehen, wie eine KI zu einer bestimmten Antwort gelangt. Dies ist besonders problematisch in sensiblen Bereichen wie Personalentscheidungen, Kreditvergabe oder Justiz​.
 
 

Gesetzliche Rahmenbedingungen 

  • EU AI Act: Regelt die Nutzung von KI in der EU und enthält Vorschriften zu Transparenz, Haftung und Risikobewertung. Kennzeichnungspflicht für KI-generierte Inhalte: Ab 2026 müssen KI-generierte Inhalte explizit als solche markiert werden – es sei denn, sie wurden redaktionell überarbeitet.
  • Urheberrecht: Derzeit können KI-generierte Inhalte nicht urheberrechtlich geschützt werden, da keine menschliche „Schöpfungshöhe“ erreicht wird.
  • Die Datenschutzgrundverordnung (DSGVO) spielt eine entscheidende Rolle beim Einsatz von KI, insbesondere in Unternehmen.
 
 

Tipps fürs Prompten 

Ein guter Prompt sollte drei zentrale Eigenschaften aufweisen, die als die drei Ks bezeichnet werden:
 
  • Klarheit: Die Anfrage sollte möglichst präzise formuliert sein, um Fehlinterpretationen zu vermeiden.
  • Kontext: Das Modell benötigt ausreichend Hintergrundinformationen, um eine treffende Antwort zu generieren.
  • Kontrolle: Durch strukturierte Vorgaben kann beeinflusst werden, wie das Modell den Output gestaltet​.
 
Wichtige Prompting-Methoden [3] sind:
 
Zero-Shot Prompting – Beispiel: „Schreibe eine Pressemitteilung zur Eröffnung einer Kunstausstellung.“
  • Definition: Das Modell erhält keine Beispiele, sondern nur eine allgemeine Aufgabenbeschreibung.
  • Vorteil: Schnell und effizient für einfache Aufgaben.
  • Nachteil: Die Qualität der Ausgabe kann variieren, da das Modell sich selbst eine Struktur überlegen muss.
 
Few-Shot Prompting – Beispiel: „Hier ist eine beispielhafte Pressemitteilung: [Beispieltext] Erstelle nun eine Pressemitteilung im gleichen Stil für eine andere Ausstellung.“
  • Definition: Das Modell erhält ein oder mehrere Beispiele, um sich an einem bestimmten Stil oder Format zu orientieren.
  • Vorteil: Verbessert die Qualität der Ergebnisse erheblich.
  • Nachteil: Erfordert mehr Kontext und erhöht den Tokenverbrauch.
 
Chain-of-Thought Prompting (CoT) – Beispiel: „Erkläre Schritt für Schritt, wie man ein neuronales Netz für Handschrifterkennung trainiert.“ Das Modell zerlegt die Aufgabe in mehrere Phasen: 1. Datensammlung, 2. Datenaufbereitung, 3. Modellarchitektur definieren, 4. Training des Modells, 5. Evaluierung und Optimierung​.
  • Definition: Das Modell wird angewiesen, einen komplexen Denkprozess in mehreren Schritten zu durchlaufen.
  • Vorteil: Führt zu genaueren Ergebnissen bei logischen und mehrstufigen Aufgaben.
  • Nachteil: Erhöht die Rechenzeit und Token-Nutzung.
 
Self-Consistency Prompting
  • Diese Methode verbessert die Zuverlässigkeit von KI-Generierungen, indem das Modell mehrere Antworten generiert und vergleicht, bevor es die endgültige Ausgabe erstellt.
  • Anwendung: Besonders nützlich in Bereichen wie wissenschaftlichen Analysen oder Entscheidungsfindung, wo hohe Genauigkeit erforderlich ist​.
 
Say What You See
 
Das Google-Tool Say What You See veranschaulicht das Prinzip des Prompting und der Bild-KI-Verarbeitung. Das Tool zeigt ein Bild, das von Nutzer:innen beschrieben werden muss.
Diese textuelle Beschreibung dient als Prompt, mit dem auf der rechten Seite eine KI ein neues Bild generiert (Reverse Prompting).
Die KI vergleicht dann das generierte Bild mit dem ursprünglichen und gibt eine Übereinstimmungsbewertung in Prozent an. 
 
Das Tool verdeutlicht zentrale Prinzipien des Prompting: 
  • präzise Wortwahl (allgemeine Begriffe führen zu ungenauen Ergebnissen, spezifische Begriffe wie „eine Tasse mit blauem Rand“ anstatt nur „Tasse“ verbessern die Genauigkeit)
  • zielgerichtete Beschreibung
 
 

Hilfreiche Tools von Vroni Hackl & KI-Marketing-Bootcamp 

 
 

Fazit 

KI verändert die Art und Weise, wie Inhalte erstellt und konsumiert werden, auf fundamentale Weise. Während KI-Werkzeuge enorme Effizienzsteigerungen ermöglichen, bleiben Herausforderungen in Bezug auf Ethik, Verzerrungen und Energieverbrauch bestehen. Eine kritische Reflexion und fundierte Medienkompetenz sind entscheidend, um KI verantwortungsvoll und sinnvoll einzusetzen.

Credits und Zusatzinfos: 

Fußnoten:

[1] Pengfei Li u. a., Making AILess “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models, 2025 https://arxiv.org/pdf/2304.03271
[2] Weixin Liang u. a., Monitoring AI-Modified Content at Scale: ACase Study on the Impact of ChatGPT on AI Conference Peer Reviews, 2024, https://arxiv.org/pdf/2403.07183
[3] Sander Schulhoff u. a., The Prompt Report: A Systematic Survey of Prompt Engineering Techniques, 2024f., https://arxiv.org/abs/2406.06608


Referent:in Vroni Hackl
Die Trainerin für AI Literacy sowie den Text-KI-Workshop ist Vroni Hackl. Sie beschäftigt sich mit dem Einsatz von Sprachmodellen, wie man sie von ChatGPT kennt und ist aktuell in ihre Doktorarbeit vertieft. Ihr Wissen teilt sie durch Kurse für Unternehmen, die sie gemeinsam mit Georg Neumann seit 2022 mit dem KI Marketing Bootcamp anbietet. Vor ihrer Promotion war die Passauerin mehr als zehn Jahre als Leiterin der Unternehmenskommunikation und Marketing eines Unternehmens sowie als Gründerin tätig. Diese Erfahrungen lassen sie KI pragmatisch in reale Arbeitsprozesse integrieren.
Aus- & Weiterbildung
Jobs & Ausschreibungen
neues museum
Museums­registrierung
Österreichischer Museumstag
Museums­gütesiegel
Leitfäden & Standards
Museums­Scorecard
Vitrinen­bör⁠s⁠e
Wir über uns
Newsletteranmeldung
Mit unserem Newsletter informieren wir Sie über Wissenswertes aus dem Museumssektor.
Der Museumsbund Österreich wird gefördert von
Bundesministerium für Kunst, Kultur, öffentlicher Dienst & Sport
Winter Artservice
Land Burgenland  - Kultur
Land Kärnten
Land Niederösterreich
Land Oberösterreich
Land Salzburg
Land Steiermark - Kultur, Europa, Sport
Land Tirol
Land Vorarlberg