Wie KI Gesichter glÀttet, Brillen löscht, Körper sexualisiert
Fragmentierte Beobachtungen
â Normkörper im Datensatz â
â Brillen verschwinden im Render â
â Umschlag verliert sein Siegel â
â Roboterbrust glĂ€nzt ĂŒbertrieben â
â NeutralitĂ€t verlernt, Muster gelernt â
â Algorithmus schweigt, Ăsthetik schreit â
Zwischenruf: Eric Email ohne Brille
â GlĂ€tte frisst IdentitĂ€t â
â SehschwĂ€che wird nicht modelliert â
â Gesicht wird zur Collage â
â Papierkörper bleibt glaubwĂŒrdiger â
Zwischenruf: Neon-Cyborg im Bambus
â Meditierend, aber sexualisiert â
â Androgynie im Prompt verschluckt â
â Körper als WerbeĂ€sthetik â
â GeschlechtsneutralitĂ€t = unsichtbar â
Protokoll der Filter
â Weights gewichten Normen â
â Bias trainiert Vorurteile â
â Layer stapeln Ăsthetik â
â Loss minimiert Abweichung â
â Aktivierung = Ăbertreibung â
â Backpropagation des Schönheitsideals â
Meta-Fragment
Maschine trÀumt glatter als wir.
Akademische Ausarbeitung
Die Beobachtung, dass KI-Bildmodelle Brillen âvergessenâ, Gesichter glĂ€tten und Körper sexualisieren, verweist auf eine systematische Einschreibung normativer Ăsthetiken in Trainingsdaten. Studien zu DatensĂ€tzen belegen, dass MinoritĂ€ten und abweichende Körperbilder in den gĂ€ngigen Bildquellen stark unterreprĂ€sentiert sind (Gebru et al., 2021). Diese Unsichtbarkeit schlĂ€gt sich in den generierten Bildern nieder: Ableismus wird algorithmisch fortgeschrieben, indem Behinderung gar nicht erst modelliert wird (Garland-Thomson, 1997).
Die Ăbertreibung von Weiblichkeit folgt aus einer Datenbasis, die Bilder sexualisierter, standardisierter Körper ĂŒberreprĂ€sentiert. Noble (2018) zeigt in ihrer Analyse algorithmischer Suchmaschinen, dass stereotype ReprĂ€sentationen von Frauen nicht nur erhalten, sondern systematisch verstĂ€rkt werden. Ăbertragen auf Bildmodelle bedeutet dies: Die Maschine âlerntâ aus pornographisch und werbeĂ€sthetisch dominierten Quellen, wodurch NeutralitĂ€t oder Androgynie verschluckt werden.
In soziologischer Perspektive verweist dies auf Bourdieu (1984), der den Zusammenhang zwischen kulturellem Kapital, Geschmack und Distinktion herausarbeitet. Wenn KI-Bildmodelle standardisierte AttraktivitĂ€tsnormen reproduzieren, dann ist dies kein âFehlerâ, sondern die VerlĂ€ngerung sozialer Distinktionsmechanismen im digitalen Raum.
Damit zeigt sich ein paradoxes Moment: WĂ€hrend KI als âneutralâ beworben wird, reproduziert sie mit hoher PrĂ€zision gesellschaftliche Normierungen. Die technischen Prozesse (Weights, Bias, Loss) erscheinen dabei mythologisch aufgeladen: ein âPantheonâ von NormalitĂ€t, das Abweichung als statistischen Verlust behandelt und Schönheit als systematische Minimierung von Differenz begreift.
Quellen
Bourdieu, P. (1984). Distinction: A social critique of the judgement of taste. Harvard University Press.
https://doi.org/10.4159/9780674030206Garland-Thomson, R. (1997). Extraordinary bodies: Figuring physical disability in American culture and literature. Columbia University Press.
Gebru, T., Morgenstern, J., Vecchione, B., Vaughan, J. W., Wallach, H., DaumĂ© III, H., & Crawford, K. (2021). Datasheets for datasets. Communications of the ACM, 64(12), 86â92.
https://doi.org/10.1145/3458723Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. NYU Press.
https://doi.org/10.18574/nyu/9781479833641.001.0001
Meta: Normen verfestigt, Brillen gelöscht, Körper verzerrt.