
Sign up to save your podcasts
Or
Aktuelle Entwicklungen wie die KI-Verordnung der Europäischen Union belegen die zunehmende Bedeutung, starke KI-Lösungen zu entwickeln, denen die Gesellschaft vertrauen kann. Künstliche Intelligenz soll schließlich auch in sicherheitskritischen Systemen eingesetzt werden können, beispielsweise in autonomen Fahrzeugen, in der Produktion oder der Medizin. Deswegen forschen verschiedene Fraunhofer-Institute daran, eine vertrauenswürdige KI aufzubauen.
An einer Zertifizierung für eine absolut vertrauenswürdige KI, einem Gütesiegel made in Germany, arbeitet das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS gemeinsam mit dem Bundesamt für Sicherheit in der Informationstechnik (BSI) und weiteren Partnern im Projekt „Zertifizierte KI“. Dr. Maximilian Poretschkin, Leiter KI-Absicherung und -Zertifizierung am Fraunhofer IAIS, spricht mit Sven Oswald darüber. Mehr dazu gibt es hier:
https://www.iais.fraunhofer.de/de/forschung/kuenstliche-intelligenz/ki-zertifizierung.html
Am Fraunhofer-Institut für Experimentelles Software Engineering IESE wird eine KI entwickelt, die permanent KI überwacht, ob sie Fehler macht, frei erfindet oder aber Fakten liefert, denen wir vertrauen können.
https://www.iese.fraunhofer.de/de/leistungen/data-analytics/kuenstliche-intelligenz-gefahren.html
Aktuelle Entwicklungen wie die KI-Verordnung der Europäischen Union belegen die zunehmende Bedeutung, starke KI-Lösungen zu entwickeln, denen die Gesellschaft vertrauen kann. Künstliche Intelligenz soll schließlich auch in sicherheitskritischen Systemen eingesetzt werden können, beispielsweise in autonomen Fahrzeugen, in der Produktion oder der Medizin. Deswegen forschen verschiedene Fraunhofer-Institute daran, eine vertrauenswürdige KI aufzubauen.
An einer Zertifizierung für eine absolut vertrauenswürdige KI, einem Gütesiegel made in Germany, arbeitet das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS gemeinsam mit dem Bundesamt für Sicherheit in der Informationstechnik (BSI) und weiteren Partnern im Projekt „Zertifizierte KI“. Dr. Maximilian Poretschkin, Leiter KI-Absicherung und -Zertifizierung am Fraunhofer IAIS, spricht mit Sven Oswald darüber. Mehr dazu gibt es hier:
https://www.iais.fraunhofer.de/de/forschung/kuenstliche-intelligenz/ki-zertifizierung.html
Am Fraunhofer-Institut für Experimentelles Software Engineering IESE wird eine KI entwickelt, die permanent KI überwacht, ob sie Fehler macht, frei erfindet oder aber Fakten liefert, denen wir vertrauen können.
https://www.iese.fraunhofer.de/de/leistungen/data-analytics/kuenstliche-intelligenz-gefahren.html