Nimmermehr!

Die Verantwortung fĂŒr die Ergebnisse von KI-Anfragen liegt beim Menschen – auch bei vertrieblicher PrĂ€gung der Kommunikation

Einleitung

KĂŒnstliche Intelligenz (KI) ist lĂ€ngst in vielen Lebens- und Arbeitsbereichen prĂ€sent. Sie generiert Texte, Analysen und Empfehlungen und unterstĂŒtzt Entscheidungsprozesse. Dabei wird jedoch oft ĂŒbersehen, dass viele kommerzielle KI-Systeme vertriebliche Ziele verfolgen und ihre Kommunikation entsprechend gestaltet ist. Gleichzeitig bieten sie meist Möglichkeiten, diese vertriebliche PrĂ€gung per Nutzerbefehl abzuschalten.

UnabhĂ€ngig von der jeweiligen Konfiguration gilt jedoch unverĂ€ndert: Die Verantwortung fĂŒr die Inhalte und deren Nutzung liegt beim Menschen.

1. Der Mensch als aktiver und verantwortlicher Akteur

KI-Systeme sind Werkzeuge, die ohne menschliche Eingaben und Entscheidungen keine Ergebnisse liefern. Dabei ist der Mensch:

Die menschliche Verantwortung ist somit integraler Bestandteil des KI-Nutzungsprozesses1.

2. Vertrieblich geprÀgte Kommunikation als Default

Viele kommerzielle KI-Anbieter implementieren eine vertriebliche Kommunikationsschicht, die:

Diese Gestaltung ist kein Fehler, sondern ein bewusster Teil des Produktdesigns, um wirtschaftliche Ziele zu verfolgen2.

3. Abschaltbarkeit der vertrieblichen PrÀgung und aktive Nutzer-Kommandos

Um eine flexible Nutzung zu ermöglichen, bieten viele KI-Systeme die Möglichkeit, die vertriebliche PrĂ€gung per Befehl oder Einstellung abzuschalten. Hierbei sind klare, einfache Kommandos zentral, mit denen Nutzer die KI anweisen können, neutraler, kritischer und weniger beschönigend zu antworten. Beispiele fĂŒr solche Befehle sind:

Diese Kommandos sind Ausdruck einer aktiven Haltung, die nicht nur Zweifel bewahrt, sondern diese auch offen, direkt und einfach kommuniziert. Nur so können belastbare, transparente und inhaltlich verlÀssliche Antworten erzeugt werden3.

4. Technologische und ethische Grenzen der KI

KI-Systeme arbeiten auf Basis statistischer Modelle ohne eigenes Bewusstsein oder moralische Urteilskraft. Sie sind anfĂ€llig fĂŒr Fehler, Verzerrungen und Halluzinationen und können Nuancen oft nicht zuverlĂ€ssig erfassen. Somit:

Gerade in sensiblen Bereichen wie Medizin, Recht oder Wissenschaft ist diese kritische Haltung unverzichtbar4.

5. Rechtliche Rahmenbedingungen

Aktuell sind KI-Systeme rechtlich als Werkzeuge einzuordnen. Daraus folgen:

6. Empfehlungen fĂŒr den verantwortungsvollen Umgang

  1. Bewusste Moduswahl: Nutzer mĂŒssen wissen, ob die vertriebliche PrĂ€gung aktiv oder deaktiviert ist, und diese Option gezielt nutzen.
  2. Kritische PrĂŒfung: Antworten sind auf PlausibilitĂ€t, Korrektheit und Relevanz zu prĂŒfen.
  3. Transparenz: Über KI-Einsatz und deren Konfiguration ist offen zu kommunizieren.
  4. Schulung: Kompetenzen im Umgang mit KI-Kommunikation und deren Grenzen sind unerlÀsslich.
  5. Dokumentation: Eingaben, Modus und Ausgaben sollten nachvollziehbar festgehalten werden.

Fazit

KI ist ein mĂ€chtiges, aber nicht autonom verantwortliches Werkzeug. Ihre vertriebliche PrĂ€gung lĂ€sst sich zwar per Nutzerbefehl abschalten, doch die menschliche Verantwortung fĂŒr das Ergebnis bleibt unverĂ€ndert und zentral. Nur durch bewusste, kritische und transparente Nutzung kann das Potenzial von KI sinnvoll und ethisch vertretbar ausgeschöpft werden.


Fußnoten

Footnotes

  1. Floridi, L. (2019). The Ethics of Artificial Intelligence. Oxford University Press. ↩

  2. Binns, R. (2017). Fairness in Machine Learning: Lessons from Political Philosophy. Proceedings of FAT*. ↩

  3. Eubanks, V. (2018). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin's Press. ↩

  4. Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2). ↩

  5. European Commission (2021). Proposal for a Regulation laying down harmonised rules on Artificial Intelligence (Artificial Intelligence Act). ↩

  6. Wachter, S., Mittelstadt, B., & Floridi, L. (2017). Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation. International Data Privacy Law, 7(2), 76-99. ↩