KI, Kreativität & Recht
Die digitale Transformation stellt das Recht vor eine bekannte, aber neue Herausforderung: Wer handelt, wer trifft Entscheidungen, wer ist verantwortlich – und wer ist eigentlich kreativ, wenn Künstliche Intelligenz (KI) immer mehr Inhalte produziert?
KI ist längst nicht mehr nur ein Werkzeug. Sie beeinflusst, wie wir wahrnehmen, kommunizieren und Entscheidungen treffen. Das wirft ein zentrales juristisches Problem auf: Zurechenbarkeit. Wer ist für eine Handlung oder ein Ergebnis verantwortlich, wenn Menschen und KI gemeinsam wirken?
Warum der Mensch im Recht wichtig bleibt
Wenn menschliche Autorschaft, Verantwortung und Entscheidungsfreiheit verschwimmen, wird es schwierig, rechtliche Verantwortung klar zuzuordnen. Der sogenannte „Human Factor“ ist daher kein technikskeptischer Reflex – er ist aus rechtlicher Sicht notwendig.
Kreativität zwischen Regeln und Freiheit
Kreativität wird oft als Regelbruch verstanden. Jedoch: Kreativität entsteht nicht außerhalb von Regeln, sondern durch deren clevere Kombination.
Auch im Recht passiert Innovation innerhalb bestehender Regeln – durch Auslegung oder Weiterentwicklung.
Wichtig: Rechtlich kann Kreativität nur dort zugeschrieben werden, wo jemand Entscheidungen innerhalb eines normativen Rahmens trifft.
Hier liegt der Unterschied zu KI: Auch wenn KI neue Kombinationen erzeugt, fehlt ihr die Fähigkeit, sich selbst normativ einzuordnen. Sie kann Ergebnisse liefern, aber keine Verantwortung übernehmen.

Zurechnungsprobleme durch generative KI
Generative KI verschärft das Problem, weil sie Bedeutungen oft ohne klare Intention erzeugt. Texte, Bilder oder Videos entstehen multimodal, kontextabhängig und emergent – oft ohne dass man die Absicht nachvollziehen kann.
Das Recht aber funktioniert nur, wenn Handlungen oder Bedeutungen eindeutig zuordenbar sind: Wer will etwas, wer täuscht, wer ist Autor?
Wenn Bedeutung wirksam wird, aber niemand klar verantwortlich ist, droht eine Verantwortungsdiffusion.
Regeln allein auf Ergebnisse zu stützen, reicht nicht. Man muss auch betrachten, wie Bedeutungen entstehen, besonders dort, wo Wahrnehmung und Verhalten unbemerkt beeinflusst werden.
Grundrechte und KI
Das österreichische Recht schützt den Menschen als autonomes Subjekt.
KI kann die Autonomie beeinträchtigen, zum Beispiel durch unbewusste Beeinflussung oder subtile Steuerung (sogenanntes Priming), ohne dass klassische Eingriffe vorliegen. Deshalb sind solche Eingriffe grundrechtlich relevant.
Die Meinungsfreiheit schützt nicht nur Inhalte, sondern auch die Bedingungen ihrer Entstehung. Wenn Algorithmen unsere Kommunikationsräume strukturieren, betrifft das direkt die demokratische Öffentlichkeit.
Human in the Loop: Der Mensch als Anker
Die EU-KI-Verordnung setzt auf das Prinzip Human in the Loop: In sensiblen Systemen muss ein Mensch Entscheidungen begleiten.
Dabei geht es nicht nur um technische Überwachung, sondern um rechtliche Verantwortung. Der Mensch bleibt der Anker, an dem Verantwortlichkeit festgemacht wird – auch wenn Prozesse automatisiert ablaufen.
Besonders wichtig ist das beim Verbot subliminaler Techniken, die Verhalten unbemerkt steuern. Geschützt wird damit nicht nur die Entscheidung, sondern auch der Wahrnehmungsraum selbst.

Autonomie, Kreativität und Bedeutung entstehen nicht nur in expliziten Entscheidungen, sondern auch in vorbewussten Resonanzräumen. Das Recht hat die Aufgabe, diese Räume zu schützen – ohne sie vollständig zu regulieren – in Privatheit, Spiegelungen des Selbst und im Wechselspiel der Technologie.
Fazit: Menschliche Verantwortung bleibt
Der Human Factor ist keine nostalgische Erinnerung an eine analoge Welt. Er markiert die Grenze, an der technologische Innovation rechtlich anschlussfähig bleibt.
Wo der Mensch aus dem normativen Regelkreis verschwindet, verliert das Recht seinen Adressaten.
Abb: Fotos und Bilder, Elisabeth Hödl (2026)
