Warum die künstliche Intelligenz niemals die menschliche übertreffen kann. Wie verhält sich die Intelligenz zu unserem Denken? Was meinen wir damit, wenn wir sagen: „Uns geht ein Licht auf?" Und welche Bedeutung hat in diesem Zusammenhang das Bewusstsein. Auf diese Fragen geben wir dieses Mal Antworten.
Quellen:
1.
Die 7 Intelligenzen nach Howard Gardner
2.
Fachtagung „KI – Zwischen Transparenz und Teilhabe", St. Virgil, Salzburg, am 08. Mai 2025
Wenn bei dieser Fachtagung von bis zu 70 % Verzerrung gesprochen wurde, geht es vermutlich um den hohen Anteil nicht-repräsentativer oder strukturell verzerrter Trainingsdaten, nicht um bis zu 70 % „falsche Antworten" von KI-Systemen.
1. Datenverzerrung (Data Bias)
KI-Systeme werden mit vorhandenen Daten trainiert – und diese Daten enthalten häufig:
- gesellschaftliche Ungleichheiten
- Überrepräsentation bestimmter Gruppen
- kulturelle oder sprachliche Schieflagen
Ein großer Anteil der Trainingsdaten kann strukturell verzerrt sein– teilweise in der Größenordnung von 60–70 %, wenn man globale Repräsentation (z. B. westliche Perspektiven im Internet) betrachtet.
2. Globale Datenungleichheit
Ein Beispiel:
- Ein Großteil öffentlich verfügbarer Trainingsdaten stammt aus Nordamerika und Europa.
- Viele Regionen (Globaler Süden, Minderheitensprachen) sind stark unterrepräsentiert.
In diesem Kontext kann man sagen, dass ein erheblicher Anteil der Datengrundlage nicht global repräsentativ ist.
3. Wichtig: Kontextabhängigkeit
Die „70 %" sind:
- keine standardisierte wissenschaftliche Messgröße
- kein global anerkannter Durchschnittswert
- eher eine zugespitzte, erklärende Größenordnung zur Illustration des Problems
In diesem Zusammenhang sehr zu empfehlen: Bernd Resch, er ist Professor für GeoSoziale KI an der IT:U Interdisciplinary Transformation University und Visiting Scholar an der Harvard University (USA). https://it-u.at/de/research/professors/bernd-resch/
3. Zentrale Studien zu Bias in KI:
- Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT '21), 610–623. https://doi.org/10.1145/3442188.3445922
- Bolukbasi, T., Chang, K.-W., Zou, J. Y., Saligrama, V., & Kalai, A. T. (2016). Man is to computer programmer as woman is to homemaker? Debiasing word embeddings. Advances in Neural Information Processing Systems, 29.
- Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. Proceedings of Machine Learning Research, 81, 1–15.
- Caliskan, A., Bryson, J. J., & Narayanan, A. (2017). Semantics derived automatically from language corpora contain human-like biases. Science, 356(6334), 183–186. https://doi.org/10.1126/science.aal4230
- Dodge, J., Gururangan, S., Card, D., Schwartz, R., & Smith, N. A. (2021). Documenting large webtext corpora: A case study on the Colossal Clean Crawled Corpus. Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing (EMNLP).
- Obermeyer, Z., Powers, B., Vogeli, C., & Mullainathan, S. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464), 447–453. https://doi.org/10.1126/science.aax2342