In einem Artikel mit der Überschrift: „Seit wann gibt es Internet“ heißt es:
| „Täglich werden auf WordPress-Blogs gut 2,75 Millionen Artikel veröffentlicht, was zu mehr als 5 Millionen neuen Inhalten täglich führt. Diese Flut an Informationen hat die Medienlandschaft revolutioniert, aber auch neue Herausforderungen geschaffen, wie die Verbreitung von Fake News und Desinformation. Ein weiterer wichtiger Aspekt ist die Medienkompetenz, die im digitalen Zeitalter unerlässlich ist. Mehr als 4 Milliarden Menschen sind online, was mehr als der Hälfte der Weltbevölkerung entspricht. Da das Internet leicht zugängliche Informationen bietet, ist es entscheidend, die Fähigkeit zu entwickeln, zwischen verlässlichen und unzuverlässigen Quellen zu unterscheiden.“ |
Zunächst eine Berichtigung: Nach Angaben von WordPress selbst werden pro Tag nicht 2,75 Millionen, sondern rund 2,3 Millionen Artikel veröffentlicht.
In dem Zitat wird Medienkompetenz ausdrücklich erwähnt. Leider befindet sie sich noch immer in den Kinderschuhen, selbst wenn es einzig darum geht, zuverlässig zwischen richtigen und falschen Informationen zu unterscheiden. Dabei geht es längst nicht mehr nur darum. Das grundlegend neue Problem ist ein anderes: Man kann echten Dingen plötzlich nicht mehr trauen.
Man stelle sich vor, es taucht ein Video auf, das einen Politiker in einer peinlichen oder kompromittierenden Situation zeigt. Früher wäre die Reaktion klar gewesen: ein Skandal. Heute kann die betroffene Person sagen: Das ist KI, ein Fake. Und diese Erklärung wirkt plausibel. In der Forschung wird das mitunter als „Lügner-Bonus“ beschrieben. Wer tatsächlich etwas getan hat, kann sich leichter herausreden, weil es überzeugende Fälschungen gibt. Das führt zu einer Wirklichkeitskrise. Falsches wirkt echt, Echtes wird verdächtig, und am Ende bleibt Unsicherheit darüber, was überhaupt noch stimmt.
Unser Gehirn ist darauf trainiert, Bildern und Stimmen zu glauben. Das hat über Jahrtausende hinweg funktioniert. Genau diese tief verankerte Gewohnheit nutzt KI aus. Ein Video kann heute eine authentisch klingende Stimme haben, realistische Mimik zeigen und in sich logisch erscheinen und dennoch vollständig erfunden sein.
UNESCO spricht mittlerweile nicht nur von einer Informationskrise, sondern von einer Wissenskrise. Oder einfacher gesagt: Unsere bisherigen Beweise zählen nicht mehr.
Vor diesem Hintergrund sagen Politik und Fachleute inzwischen recht eindeutig, dass sich das KI-Problem nicht allein an die Nutzerinnen und Nutzer delegieren lässt. Appelle nach dem Motto „Seid kritischer“ greifen zu kurz, weil die Lage dafür zu komplex geworden ist.
Deshalb greift der Gesetzgeber ein. In der Europäischen Union geschieht das unter anderem mit dem sogenannten AI Act.
Die Grundidee ist vergleichsweise schlicht: Wenn Inhalte von einer Maschine erzeugt wurden, sollen sie grundsätzlich als solche offengelegt werden. Ein KI-generiertes Video, Bild oder ein automatisch erzeugter Text soll erkennbar sein. Damit macht der Staat deutlich, dass es sich um ein gesellschaftliches Risiko handelt, das nicht allein durch mehr Medienkompetenz beherrschbar ist.
Parallel dazu arbeitet die EU an Leitlinien und praktischen Vorgaben, wie diese Kennzeichnung konkret umzusetzen ist. Es geht also nicht nur um die abstrakte Pflicht zur Offenlegung, sondern um Fragen der Sichtbarkeit, der Platzierung und der Verantwortung. Ohne solche Konkretisierungen besteht die Gefahr, dass ein Gesetz auf dem Papier existiert, im Alltag aber wirkungslos bleibt.
Auch technisch ist der Ton nüchterner geworden. Lange gab es die Hoffnung, ein einzelnes Werkzeug könne das Problem lösen. Heute geht man überwiegend davon aus, dass nur ein Zusammenspiel mehrerer Ansätze realistisch ist. Eine zentrale Rolle spielt dabei die Herkunft von Inhalten. Die Idee dahinter ist, dass Bilder oder Videos einen digitalen Herkunftsnachweis tragen, aus dem hervorgeht, wer sie erstellt hat, mit welchen Werkzeugen und welche Veränderungen später vorgenommen wurden. Im Idealfall ist diese Information so abgesichert, dass sie nicht einfach gefälscht oder entfernt werden kann.
Ergänzend dazu werden sichtbare oder unsichtbare Markierungen diskutiert, die auf KI-Erzeugung hinweisen, sowie Programme, die typische Spuren künstlicher Erzeugung erkennen sollen, ähnlich wie ein Gutachter bei einem gefälschten Gemälde auf feine Details achtet. All das soll durch verbindliche Prüfprozesse und Standards abgesichert werden, damit entsprechende Maßnahmen nicht nur angekündigt, sondern auch tatsächlich umgesetzt werden.
Dabei wird allerdings selten behauptet, dass dieses System reibungslos funktioniert. In der Praxis gehen Herkunftsinformationen häufig verloren. Inhalte werden hochgeladen, weiterverbreitet, neu gespeichert oder komprimiert. Am Ende sieht der normale Nutzer den Hinweis nicht mehr, selbst wenn er ursprünglich vorhanden war. Genau diese Lücke zwischen technischer Möglichkeit und alltäglicher Sichtbarkeit gilt als eines der größten ungelösten Probleme.
Unterm Strich gibt es ernsthafte Versuche, das entstehende Chaos rechtlich und technisch einzugrenzen. Niemand sollte jedoch erwarten, dass Gesetze oder Standards die Wirklichkeit plötzlich wieder eindeutig machen. Es geht eher darum, Schäden zu begrenzen und Orientierung zurückzugewinnen, nicht darum, absolute Sicherheit herzustellen.
Der Hinweis, dass Medienkompetenz noch in den Kinderschuhen steckt, findet sich in seriösen Einschätzungen immer wieder, meist ergänzt um eine entscheidende Einschränkung: Bildung ist notwendig, aber nicht ausreichend. Die UNESCO argumentiert ausdrücklich, dass es nicht genügt, einzelne Inhalte zu überprüfen. Stattdessen brauche es die Fähigkeit, in einer von KI geprägten Umgebung mit Unsicherheit umzugehen und dennoch handlungsfähig zu bleiben, eine Form von „epistemischer Eigenständigkeit“.
Beitragsfoto: ChatGPT