Nimmermehr!

Die Kunst des Handelns im Zeitalter der KĂŒnstlichen Intelligenz

"Der Worte sind genug gewechselt,
Laßt mich auch endlich Taten sehn!
Indes ihr Komplimente drechselt,
Kann etwas NĂŒtzliches geschehn."1

Einleitung

Mit diesen zeitlosen Worten aus Goethes "Faust" wird eine Ungeduld ausgedrĂŒckt, die auch im digitalen Zeitalter nichts an Relevanz verloren hat. In einer Welt, in der KĂŒnstliche Intelligenz zunehmend unsere Kommunikation prĂ€gt, gewinnt die Spannung zwischen Worten und Taten, zwischen schmeichelnder Rhetorik und substanziellem Handeln, eine neue Dimension. WĂ€hrend KI-Systeme immer ausgefeilter in der Erzeugung von Texten werden, bleibt die eigentliche HandlungsfĂ€higkeit – und damit die Verantwortung – fest in menschlicher Hand.

Die Verantwortung fĂŒr KI-Ergebnisse als menschliche Aufgabe

KĂŒnstliche Intelligenz ist heute in zahlreichen Lebens- und Arbeitsbereichen prĂ€sent. Sie generiert Texte, erstellt Analysen und liefert Empfehlungen, die Entscheidungsprozesse unterstĂŒtzen. Dabei wird jedoch hĂ€ufig ĂŒbersehen, dass viele kommerzielle KI-Systeme vertriebliche Ziele verfolgen und ihre Kommunikation entsprechend gestaltet ist.2 UnabhĂ€ngig von der jeweiligen Konfiguration gilt jedoch unverĂ€ndert: Die Verantwortung fĂŒr die Inhalte und deren Nutzung liegt beim Menschen.

Der Mensch als aktiver und verantwortlicher Akteur

KI-Systeme sind Werkzeuge, die ohne menschliche Eingaben und Entscheidungen keine Ergebnisse liefern. Dabei ist der Mensch:

Die menschliche Verantwortung ist somit integraler Bestandteil des KI-Nutzungsprozesses.3 Hier zeigt sich die Parallele zu Goethes Mahnung: WĂ€hrend KI-Systeme durchaus "Komplimente drechseln" können, liegt es am Menschen, die "Taten" – also die kritische Bewertung, Anwendung und VerantwortungsĂŒbernahme – zu vollziehen.

Vertrieblich geprÀgte Kommunikation als Standard

Viele kommerzielle KI-Anbieter implementieren eine vertriebliche Kommunikationsschicht, die:

Diese Gestaltung ist kein Fehler, sondern ein bewusster Teil des Produktdesigns, um wirtschaftliche Ziele zu verfolgen.4 Die "Komplimente", von denen Goethe spricht, finden hier ihre moderne Entsprechung in einer KI-Kommunikation, die darauf ausgerichtet ist, zu gefallen und zu ĂŒberzeugen, nicht unbedingt kritisch zu hinterfragen.

Abschaltbarkeit der vertrieblichen PrÀgung

Um eine flexible Nutzung zu ermöglichen, bieten viele KI-Systeme die Möglichkeit, die vertriebliche PrĂ€gung per Befehl oder Einstellung abzuschalten. Hierbei sind klare, einfache Kommandos zentral, mit denen Nutzer die KI anweisen können, neutraler, kritischer und weniger beschönigend zu antworten. Beispiele fĂŒr solche Befehle sind:

Diese Kommandos sind Ausdruck einer aktiven Haltung, die nicht nur Zweifel bewahrt, sondern diese auch offen, direkt und einfach kommuniziert.5 Sie ermöglichen es dem Nutzer, ĂŒber die "Komplimente" hinauszugehen und zu den "Taten" – in diesem Fall zu substanzielleren, kritischeren Antworten – zu gelangen.

Technologische und ethische Grenzen der KI

KI-Systeme arbeiten auf Basis statistischer Modelle ohne eigenes Bewusstsein oder moralische Urteilskraft. Sie sind anfĂ€llig fĂŒr Fehler, Verzerrungen und Halluzinationen und können Nuancen oft nicht zuverlĂ€ssig erfassen. Somit:

Gerade in sensiblen Bereichen wie Medizin, Recht oder Wissenschaft ist diese kritische Haltung unverzichtbar.6 Hier zeigt sich erneut die AktualitĂ€t von Goethes Worten: Die KI mag eloquent sein, doch die eigentliche Handlung – die verantwortungsvolle Anwendung und kritische Beurteilung – bleibt eine menschliche Aufgabe.

Die Verschiebung von Handlung in der modernen Arbeitswelt

In der heutigen Arbeitslandschaft beobachten wir eine zunehmende Trennung zwischen denjenigen, die Entscheidungen treffen, und jenen, die diese operativ umsetzen. FĂŒhrungskrĂ€fte, die oft höhere VergĂŒtungen erhalten, sind hĂ€ufig nicht mehr direkt am "operativen GeschĂ€ft" beteiligt.7 Diese Entwicklung verstĂ€rkt die von Goethe angesprochene Diskrepanz zwischen Worten und Taten.

Die Hierarchisierung und Spezialisierung moderner Organisationen hat zu einer Situation gefĂŒhrt, in der strategische EntscheidungstrĂ€ger und operative Mitarbeiter in verschiedenen SphĂ€ren agieren. Diese Trennung kann Effizienzvorteile bieten, birgt jedoch auch die Gefahr einer Entfremdung von der praktischen RealitĂ€t.8

Rechtliche Rahmenbedingungen

Aktuell sind KI-Systeme rechtlich als Werkzeuge einzuordnen. Daraus folgen:

Die rechtliche Einordnung unterstreicht somit die zentrale These: Trotz aller technologischen Fortschritte bleibt der Mensch der handelnde und verantwortliche Akteur.

Empfehlungen fĂŒr den verantwortungsvollen Umgang

  1. Bewusste Moduswahl: Nutzer mĂŒssen wissen, ob die vertriebliche PrĂ€gung aktiv oder deaktiviert ist, und diese Option gezielt nutzen.
  2. Kritische PrĂŒfung: Antworten sind auf PlausibilitĂ€t, Korrektheit und Relevanz zu prĂŒfen.
  3. Transparenz: Über KI-Einsatz und deren Konfiguration ist offen zu kommunizieren.
  4. Schulung: Kompetenzen im Umgang mit KI-Kommunikation und deren Grenzen sind unerlÀsslich.
  5. Dokumentation: Eingaben, Modus und Ausgaben sollten nachvollziehbar festgehalten werden.10

Fazit

Goethes Mahnung, ĂŒber Worte hinauszugehen und zu Taten zu schreiten, gewinnt im Zeitalter der KĂŒnstlichen Intelligenz neue Bedeutung. KI ist ein mĂ€chtiges, aber nicht autonom verantwortliches Werkzeug. Ihre vertriebliche PrĂ€gung lĂ€sst sich zwar per Nutzerbefehl abschalten, doch die menschliche Verantwortung fĂŒr das Ergebnis bleibt unverĂ€ndert und zentral.

In einer Zeit, in der KI-Systeme immer geschickter darin werden, "Komplimente zu drechseln", wird die FĂ€higkeit des Menschen, kritisch zu denken, zu handeln und Verantwortung zu ĂŒbernehmen, umso wichtiger. Nur durch bewusste, kritische und transparente Nutzung kann das Potenzial von KI sinnvoll und ethisch vertretbar ausgeschöpft werden – damit, wie Goethe fordert, "etwas NĂŒtzliches geschehen" kann.


Fußnoten

Footnotes

  1. Goethe, J.W. (1808). Faust: Eine Tragödie. Erster Teil, Vers 214-217. ↩

  2. Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. Profile Books. ↩

  3. Floridi, L. (2019). The Ethics of Artificial Intelligence. Oxford University Press. ↩

  4. Binns, R. (2017). Fairness in Machine Learning: Lessons from Political Philosophy. Proceedings of FAT*. ↩

  5. Eubanks, V. (2018). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin's Press. ↩

  6. Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2). ↩

  7. Graeber, D. (2018). Bullshit Jobs: A Theory. Simon & Schuster. ↩

  8. Sennett, R. (2006). The Culture of the New Capitalism. Yale University Press. ↩

  9. European Commission (2021). Proposal for a Regulation laying down harmonised rules on Artificial Intelligence (Artificial Intelligence Act). ↩

  10. Wachter, S., Mittelstadt, B., & Floridi, L. (2017). Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation. International Data Privacy Law, 7(2), 76-99. ↩