
Sign up to save your podcasts
Or


Warum die künstliche Intelligenz niemals die menschliche übertreffen kann. Wie verhält sich die Intelligenz zu unserem Denken? Was meinen wir damit, wenn wir sagen: „Uns geht ein Licht auf?" Und welche Bedeutung hat in diesem Zusammenhang das Bewusstsein. Auf diese Fragen geben wir dieses Mal Antworten.
Quellen:
1.
Die 7 Intelligenzen nach Howard Gardner
2.
Fachtagung „KI – Zwischen Transparenz und Teilhabe", St. Virgil, Salzburg, am 08. Mai 2025
Wenn bei dieser Fachtagung von bis zu 70 % Verzerrung gesprochen wurde, geht es vermutlich um den hohen Anteil nicht-repräsentativer oder strukturell verzerrter Trainingsdaten, nicht um bis zu 70 % „falsche Antworten" von KI-Systemen.
1. Datenverzerrung (Data Bias)
KI-Systeme werden mit vorhandenen Daten trainiert – und diese Daten enthalten häufig:
Ein großer Anteil der Trainingsdaten kann strukturell verzerrt sein– teilweise in der Größenordnung von 60–70 %, wenn man globale Repräsentation (z. B. westliche Perspektiven im Internet) betrachtet.
2. Globale Datenungleichheit
Ein Beispiel:
In diesem Kontext kann man sagen, dass ein erheblicher Anteil der Datengrundlage nicht global repräsentativ ist.
3. Wichtig: Kontextabhängigkeit
Die „70 %" sind:
In diesem Zusammenhang sehr zu empfehlen: Bernd Resch, er ist Professor für GeoSoziale KI an der IT:U Interdisciplinary Transformation University und Visiting Scholar an der Harvard University (USA). https://it-u.at/de/research/professors/bernd-resch/
3. Zentrale Studien zu Bias in KI:
By Eva Maria SatorWarum die künstliche Intelligenz niemals die menschliche übertreffen kann. Wie verhält sich die Intelligenz zu unserem Denken? Was meinen wir damit, wenn wir sagen: „Uns geht ein Licht auf?" Und welche Bedeutung hat in diesem Zusammenhang das Bewusstsein. Auf diese Fragen geben wir dieses Mal Antworten.
Quellen:
1.
Die 7 Intelligenzen nach Howard Gardner
2.
Fachtagung „KI – Zwischen Transparenz und Teilhabe", St. Virgil, Salzburg, am 08. Mai 2025
Wenn bei dieser Fachtagung von bis zu 70 % Verzerrung gesprochen wurde, geht es vermutlich um den hohen Anteil nicht-repräsentativer oder strukturell verzerrter Trainingsdaten, nicht um bis zu 70 % „falsche Antworten" von KI-Systemen.
1. Datenverzerrung (Data Bias)
KI-Systeme werden mit vorhandenen Daten trainiert – und diese Daten enthalten häufig:
Ein großer Anteil der Trainingsdaten kann strukturell verzerrt sein– teilweise in der Größenordnung von 60–70 %, wenn man globale Repräsentation (z. B. westliche Perspektiven im Internet) betrachtet.
2. Globale Datenungleichheit
Ein Beispiel:
In diesem Kontext kann man sagen, dass ein erheblicher Anteil der Datengrundlage nicht global repräsentativ ist.
3. Wichtig: Kontextabhängigkeit
Die „70 %" sind:
In diesem Zusammenhang sehr zu empfehlen: Bernd Resch, er ist Professor für GeoSoziale KI an der IT:U Interdisciplinary Transformation University und Visiting Scholar an der Harvard University (USA). https://it-u.at/de/research/professors/bernd-resch/
3. Zentrale Studien zu Bias in KI: