REZEPT_
Vieles ist durch künstliche Intelligenz (KI) einfacher geworden. Gleichzeitig können die Möglichkeiten, die KI bietet, Angst machen – auch, weil den meisten Menschen die Technologie dahinter wie ein Mysterium scheint. Gerade deshalb ist es wichtig, sich umfassend darüber zu informieren. Sonja Gabriel, Hochschulprofessorin für Medienpädagogik und Mediendidaktik, hat Tipps zusammengestellt, wie Familien mit KI umgehen können.
Der erste Tipp lautet, Gespräche zu führen, anstatt den Nachwuchs zu kontrollieren: „Es ist wichtiger, mit Kindern und Jugendlichen darüber zu reden, was sie mit KI machen, welche Fragen sie an Chatbots wie ChatGPT stellen und wo sie überall mit KI in Kontakt kommen. Generell ist es besser, mit ihnen über ihre Online-Aktivitäten zu sprechen, als einfach Verbote auszusprechen“, sagt Gabriel. Durch das Wissen über Risiken und Gefahren von KI oder digitalen Medien (z. B. Datenschutz und Privatsphäre) seien sie vorbereitet und sicher auch vorsichtiger.
Bei Tipp Nummer zwei geht es darum, Altersbeschränkungen einzuhalten: „Die meisten KI-Tools legen in ihren Nutzungsbedingungen Altersgrenzen fest – bei ChatGPT ist beispielsweise ein Mindestalter von 18 Jahren gefordert, um sich einen eigenen Account anzulegen.“ Die Mitnutzung eines Erwachsenenaccounts ist mit Zustimmung der Erziehungsberechtigten zumeist ab 13 Jahren erlaubt. Das gelte auch für die KI, die in Snapchat, WhatsApp, Instagram & Co steckt. Ein Blick in die jeweiligen Nutzungsbedingungen lohne sich.
Mit ein wenig Hintergrundwissen wird klar, dass es sich bei generativer KI (jenen Systemen, die Texte, Bilder, Videos, Musik etc. erstellen können) nicht um Hexerei handelt. Gabriel rät daher, die KI zu entzaubern statt zu verteufeln: „Generative KI funktioniert auf Basis statistischer Berechnungen, die aus den Trainingsdaten gewonnen werden. Die Systeme ,verstehen‘ unsere Eingaben nicht, sondern zerlegen unsere Sprache in berechenbare Einheiten (Tokens) und errechnen dann, was wahrscheinlich die gewünschte Antwort ist.“ Sprachmodelle seien daher keine Wissensmaschinen und die Ergebnisse können falsch oder nur teilweise richtig sein. „Zudem können Stereotype oder Ideologien mitschwingen – das hängt immer von den genutzten Trainingsdaten ab und ist von System zu System verschieden“, betont Gabriel.
Generative KI kann sehr nützlich sein. Sprachmodelle wie ChatGPT, Copilot oder Gemini könnten unterstützen, indem etwa Konzepte erklärt werden: „So ist es möglich, sich beispielsweise das System der Photosynthese so erklären zu lassen, dass es auch ein Kind versteht. Übungen für unterschiedliche Themen, Übersetzungen und Ähnliches können damit ebenfalls leicht erstellt werden.“ Denkprozesse dürften allerdings nicht einfach an die KI ausgelagert werden, sagt Gabriel: „Co-Nutzung bedeutet, dass KI nur als Unterstützung eingesetzt wird. KI-Ergebnisse werden kontrolliert, überarbeitet und zum eigenen Ergebnis gemacht.“
Ein großes Thema bei der Verwendung von KI sind stereotype Darstellungen und sogenannte Bias, also eine Verzerrung oder Voreingenommenheit. Gabriel erklärt, wie diese entstehen: „Generative KI basiert auf Trainingsdaten, bei denen viele Datensätze überproportional aus westlichen, gut ausgebildeten, industrialisierten, wohlhabenden und demokratischen Gesellschaften stammen, wodurch Perspektiven aus anderen kulturellen, sozialen und ökonomischen Kontexten unterrepräsentiert sind. Dadurch kommt es sehr häufig zu Stereotypen – gut erkennbar, wenn bei bildgenerierender KI Männer und Frauen sehr stereotyp dargestellt werden.“
Durch die starke Nutzung von generativer KI finden sich auch immer mehr KI-Erzeugnisse im Internet oder auch im Buchhandel (auf Amazon gebe es beispielsweise schon eine große Anzahl KI-generierter Bücher). Dieser AI-Slop (= schnell generierte und minderwertige KI-Erzeugnisse) führe dazu, dass die Qualität der konsumierten Produkte oft sinke. „Allerdings kann durch KI auch der Zugang zum Erstellen kreativer Erzeugnisse erleichtert werden.“ Das Erstellen eines Musikstücks etwa könne mit Hilfe von KI-Tools ohne teure Geräte oder Tonstudio professionell gelingen. „Damit hat KI – wie so vieles – zwei Seiten“, sagt Gabriel.
Kinder und Jugendliche nehmen sich ein Beispiel an Erwachsenen, das gilt auch für den Umgang mit Technologie. Es ist wichtig, dass dieser offen und reflektiert ist, sagt Gabriel: „Gerade generative KI verbraucht enorm viele Ressourcen (Wasser, Strom, aber auch Rohstoffe) – daher sollte der Einsatz immer gut überlegt sein.“ Es könne natürlich manchmal angenehmer sein, wenn die Gute-Nacht-Geschichte von einer KI-Stimme vorgelesen wird oder Fragen von Kindern und Jugendlichen einfach an die KI weitergereicht werden. Erwachsene sollten kritisch hinterfragen, wo ein Einsatz sinnvoll ist. Auch Fehler und Unsicherheiten sollten thematisiert werden.
Nicht zuletzt weist Sonja Gabriel darauf hin, wie wichtig es ist, dem Nachwuchs kritische Medienkompetenz zu vermitteln – also die Fähigkeit, sowohl Medieninhalte als auch -technologien bewusst, reflektiert und verantwortungsvoll zu nutzen. Generative KI macht es einem jedoch nicht einfach, denn Bilder, Videos und Texte, die von Maschinen erstellt wurden (und damit auch manipulativ eingesetzt werden können), sind nicht mehr von menschlichen Erzeugnissen unterscheidbar. Ein Beispiel dafür sind Deepfakes (täuschend echt wirkende Medieninhalte). „Es ist daher enorm wichtig, Informationen einordnen und hinterfragen zu können, aber auch zu wissen, welche Interessen und Machtstrukturen dahinterstecken. Gleichzeitig dürfen wir aber nicht in eine ständige Angst verfallen, dass wir gar nichts mehr glauben. Kinder und Jugendliche (und auch Erwachsene) brauchen Strategien, wie sie die Glaubwürdigkeit von Informationen überprüfen können“, sagt Gabriel.
REZEPT_

Jetzt die KIRCHENZEITUNG 4 Wochen lang kostenlos kennen lernen. Abo endet automatisch. >>