Einleitung
Large Language Models (LLMs) prÀgen seit 2023 zunehmend den Alltag. Sie gelten als technologische Treiber von Kommunikation, KreativitÀt und Automatisierung. Doch die Frage, ob sie bewusst entlang ethisch-philosophischer Leitlinien wie der Infologie oder des Dorfzwockelvektors entwickelt werden, ist unbeantwortet.
Infologie fordert Datensparsamkeit, DialogqualitĂ€t, AuthentizitĂ€t und Machtkritik. Der Dorfzwockelvektor ĂŒbersetzt dies in poetische, fragmentarische Normen. Der aktuelle Befund: Es fehlen belastbare Hinweise auf eine systematische Umsetzung.
Kapitel I â Stand der LLM-Entwicklung (2025)
- Technischer Fokus: Effizienzsteigerung, Skalierung, multimodale FĂ€higkeiten (Proffiz, 2025).
- Governance: Der EU AI Act (2024, teilweise in Kraft seit 2025) schreibt Transparenz, Klassifizierung und Verbote vor, bleibt aber bei Datensparsamkeit vage (European Union, 2024).
- Normierung: NIST AI-RMF 1.0 (2023) und ISO/IEC 42001 (2023) fordern Managementsysteme und Risikoanalysen, nicht aber konkrete Architekturprinzipien (NIST, 2023; ISO/IEC, 2023).
- PrivatsphÀre: Forschung zeigt, dass LLMs Trainingsdaten memorisieren und in Dialogen leaken können (Carlini et al., 2023).
Beispiel: Ein Modell gibt auf Nachfrage E-Mail-Adressen preis, die eigentlich nur in Trainingsdaten enthalten waren â ein klarer Bruch mit Datensparsamkeit.
Kapitel II â Infologie-Prinzipien im Vergleich
1. Datensparsamkeit
- Soll: Nur minimale Metadaten, kurze Aufbewahrung, âZero Retentionâ.
- Ist: Logging und Telemetrie sind zentrale GeschÀftsgrundlagen.
2. VerschlĂŒsselung
- Soll: Ende-zu-Ende-VerschlĂŒsselung (E2E) der Kommunikation.
- Ist: Teilweise umgesetzt (z. B. Apple Private Cloud Compute), aber kein Branchenstandard.
3. DialogqualitÀt
- Soll: RĂŒckfragen statt Halluzination, Quellenpflicht, dialogische Resonanz.
- Ist: âHelpfulnessâ ist Hauptmetrik, Quellenangaben sind sporadisch und nicht auditiert.
4. Machtkritik
- Soll: Offenlegung von Datenprovenienz, Compute-Budgets, Energiequellen.
- Ist: GeschÀftsgeheimnisse dominieren; Transparenzberichte sind selektiv.
Kapitel III â Inseln der AnnĂ€herung
- Apple Private Cloud Compute (PCC): Stellt temporĂ€re, attestierbare AusfĂŒhrungsumgebungen bereit, die keine Daten speichern. (Apple, 2024).
- Anthropic Constitutional AI: Entwickelt Normensets zur Steuerung von Modellen; Fokus auf Harmlosigkeit und NĂŒtzlichkeit, nicht Machtkritik (Bai et al., 2022).
- Differential Privacy & Machine Unlearning: Erste Anwendungen, aber noch nicht Standard (Bourtoule et al., 2021).
- ISO/IEC 42001: Standard fĂŒr AI-Managementsysteme, aber ohne konkrete Leitidee der Infologie.
Beispiel: Ein Unternehmen kann ISO 42001-zertifiziert sein, ohne jemals Daten zu minimieren oder Dialogtiefe zu prĂŒfen.
Kapitel IV â Strukturelle Defizite
- Ăkonomie: GeschĂ€ftsmodelle basieren auf Datenpersistenz und Personalisierung.
- Asymmetrie: Wenige globale Anbieter kontrollieren Infrastruktur und ErzÀhlungen.
- Technikfixierung: Leistung und Skalierung ĂŒberstrahlen soziale Dialognormen.
- Filterblasen: Personalisierung verstÀrkt Segregation statt VerstÀndigung.
Kapitel V â Perspektiven & Forderungen
KPIs fĂŒr Infologie-konforme LLMs
- Data Diet Index: Anteil persistenter Logs = 0 %.
- Encryption Integrity: Auditierbare E2E-VerschlĂŒsselung.
- Dialogue Quality Score: RĂŒckfragequote > 30 %.
- Power Transparency Report: Offenlegung von Datenquellen, Energieverbrauch, Governance-Struktur.
- Unlearning Compliance: Nachweisliche Löschung unerwĂŒnschter Trainingsdaten.
Auditfragen
- Welche Metadaten werden gespeichert, wie lange, in welcher Form?
- Ist Kommunikation verschlĂŒsselt und prĂŒfbar?
- Wie wird Halluzination verhindert â durch RĂŒckfragen oder Disclaimer?
- Welche Machtstrukturen prÀgen das Modell?
Abschluss â Dorfzwockel-Fragment
âSpeicher frisst Vertrauen â
VerschlĂŒsselung bleibt Ausnahme â
Dialog als Spiel, nicht als Pflicht â
Macht kleidet sich in Rechenzentren â
Infologie: FuĂnote oder Fundament?â
Quellen (APA)
- Anthropic. (2022). Constitutional AI: Harmlessness from AI Feedback. arXiv. https://doi.org/10.48550/arXiv.2212.08073
- Apple. (2024). Private Cloud Compute Whitepaper. Apple Newsroom. https://www.apple.com/newsroom
- Bourtoule, L., Chandrasekaran, V., Choquette-Choo, C. A., Jia, H., Travers, A., Zhang, B., Lie, D., & Papernot, N. (2021). Machine Unlearning. IEEE Symposium on Security and Privacy. https://doi.org/10.1109/SP40001.2021.00085
- Carlini, N., et al. (2023). Extracting Training Data from Large Language Models. USENIX Security Symposium. https://www.usenix.org/conference/usenixsecurity23/presentation/carlini
- European Union. (2024). Artificial Intelligence Act. EUR-Lex. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32024R1689
- ISO/IEC. (2023). 42001:2023 Information technology â AI management system. International Organization for Standardization. https://www.iso.org/standard/81230.html
- NIST. (2023). AI Risk Management Framework (RMF) 1.0. National Institute of Standards and Technology. https://doi.org/10.6028/NIST.AI.100-1
- Proffiz. (2025). The Future of Large Language Models. Retrieved from https://proffiz.com/large-language-models-in-2025