Share Irgendwas mit Daten - Datenanalyse in der Industrie
Share to email
Share to Facebook
Share to X
By Barbara Bredner
The podcast currently has 51 episodes available.
👉 Woher kommt die Weibullverteilung?
Bei der Zuverlässigkeits- und Lebensdauer-Analyse wird die Weibull-Verteilung zur Beschreibung des Ausfallverhaltens eingesetzt. Hierfür werden Kennzahlen wie Ausfallsteilheit und charakterstische Lebensdauer aus den Daten ermittelt. Oft werden auch bestimmte Kenngrößen wie die B10-Lebensdauer gefordert.
In dieser Folge erfahren Sie, warum die Weibull-Verteilung gar nicht von Waloddi Weibull stammt. Es geht um Methoden, mit denen die Parameter der Weibull-Verteilung wie charakteristische Lebensdauer und Ausfallsteilheit ermittelt werden können und darum, welche Aussagen mit MTTF, MTBF und B10 gemacht werden können.
👉 80 Jahre Rosin-Rammler-Sperling-Bennett-Verteilung
Ich freue mich über Ihre Nachricht! Barbara Bredner, [email protected]
👉 Was können Verfahren für Zuverlässigkeit & Lebensdauer?
Methoden aus dem Bereich Zuverlässigkeit & Lebensdauer sind spezielle Auswertungsverfahren, mit denen die Haltbarkeit von Bauteilen, Produkten oder Systemen bewertet wird. Oft wird hierbei die so genannte Badewannenkurve als Modell für das Ausfallverhalten zu unterschiedlichen Zeitpunkten im Produktlebenszyklus verwendet.
Daten aus dem Bereich Zuverlässigkeit und Lebensdauer haben einige Besondernheite wie beispielsweise geringe Anzahl bei gleichzeitig hoher Anforderung an die Aussagekraft der Analysen.
Mit dieser Folge beginnt eine Serie zum Thema "Zuverlässigkeit und Lebensdauer". Freuen Sie sich auf Informationen zur Weibull-Verteilung, den Nachweis von Zuverlässigkeits-Anforderungen und der Ermittlung von Prüfmengen sowie der Einfluss-Analyse bei Belastungsprüfungen!
👉 Reliability Academy Stuttgart
Schreiben Sie mir gerne! Barbara Bredner, [email protected]
👉 Womit fängt die DoE an?
Viele Menschen denken bei der statistischen Versuchsplanung und -auswertung (Design of Experiments, DoE) zuerst daran, dass der Versuchsplan gut gewählt sein muss. Das stimmt, doch bevor es um die Auswahl und Erstellung eines geeigneten Versuchsplans geht, sind andere Schritte zur Vorbereitung notwendig.
In dieser Folge erhalten Sie Informationen zu den ersten Schritten sowie zu sinnvollen und notwendigen Vorarbeiten bei der DoE. Sie bekommen Entscheidungskriterien dafür, ob ein Versuchsplan ausreichend ist oder weitere Versuche sinnvoll sein können.
👉 Statistische Versuchsplanung und -auswertung (DoE) Ablauf
Ich freue mich über Ihre Nachricht! Barbara Bredner, [email protected]
👉 Wie funktioniert die Bewertung der Erklär-Qualität bei attributiven Zielgrößen (gut/schlecht)?
Vor der Nutzung von Modellen zum Beispiel für die Optimierung von Versuchs- oder Prozess-Einstellungen sollte immer die Aussagekraft oder Erkär-Qualität bewertet werden. In dieser Folge erfahren Sie, mit welchen Kennzahlen Machine Learning Modelle evaluiert werden, die eine attributive Zielgröße (gut/schlecht, in Ordnung/nicht in Ordnung) haben.
Diese Methoden werden eingesetzt, wenn das Versuchs- oder Prozess-Ergebnis eine Klassifizierung ist. Je treffsicherer das ML Modell vorhersagen kann, in welcher Klasse oder Kategorie das Ergebnis landet, desto besser ist es für den produktiven Einsatz geeignet. In dieser Folge bekommen Sie Informationen und Erklärungen zur Konfusionmatrix und den wichtigsten Kennzahlen zur Bewertung der Erklär-Qualität von Modellen mit attributiven Zielgrößen. Darüber hinaus erfahren Sie, wie die ROC-Kurve entsteht und warum die Fläche unter der Kurve (AUC) für ein gutes Modell deutlich größer als 0,5 sein muss.
👉 Schwangere Männer Bild
Ich freue mich über Ihre Nachricht! Barbara Bredner, [email protected]
👉 Welche Qualitäts-Kriterien gibt es für Machine Learning?
Ein Modell mit Methoden des maschinellen Lernens wie z. B. Regression oder Klassifikation zu bauen ist einfach. Solche Modelle können uns beispielsweise optimale Arbeitspunkte liefern oder dabei helfen nachzuweisen, dass die Anforderungen in einem bestimmten Prozessfenster erfüllt werden.
Bevor ein Modell produktiv genutzt wird, sollten Sie zuerst prüfen, ob das Modell gut genug ist. In dieser Folge erhalten Sie Informationen dazu, welche Kenngrößen für die Modell- bzw. Erklär-Qualität genutzt werden und warum die beliebteste Kennzahl, die Anpassungsgüte R², allein zu wenig ist. Alternative Kennzahlen wie die Prognosegüte liefern weitere wichtige Erkenntnisse über die Qualität des ML Modells.
👉 Barbara Bredner (2021) "NOT Statistik. Nachweise führen, Optimierungen finden, Toleranzen berechnen mit Minitab und R"
Ich freue mich über Ihre Nachricht! Barbara Bredner, [email protected]
👉 Warum ist das Ergebnis nicht normal-verteilt?
Die Normalverteilung von Messwerten wird für viele Methoden vorausgesetzt und sie scheint oft "das Normalste" von der Welt zu sein - bis echte Messwerte aufgenommen werden. Die sind selten normalverteilt und damit stellt sich schnell die Frage, warum die Messwerte nicht aus einer "normalen" Verteilung kommen.
Mögliche Antworten darauf erhalten Sie in der aktuellen Folge. Außerdem geht es darum, wie Auswertungen bei nicht-normalverteilten Messdaten z. B. mit GLMs funktionieren und wie die verallgemeinerten linearen Modelle mit den Methoden des maschinellen Lernens zusammenhängen.
👉 Hilbe, S. (2010) "Generalized Linear Models", Encyclopedia of Mathematics
Ich freue mich über Ihre Nachricht! Barbara Bredner, [email protected]
👉 Woher kommen Korrelation und Regression?
Wenn Korrelation, Regression und Varianzanalyse (ANOVA, Analysis Of Variance) das Gleiche wären, bräuchten wir keine unterschiedlichen Namen für die drei Verfahren - oder? Die Unterschiede sind tatsächlich eher historisch gewachsen und liegen weniger in den Unterschieden zwischen den Verfahren selbst.
Klassischerweise wurde die Regression verwendet, wenn die Einflussgrößen messbar oder variabel sind, z. B. Temperatur und Druck. Die Varianzanalyse oder ANOVA bewertete klassischerweise kategoriale oder attributive Einflüsse wie verschiedene Maschinen oder Werkzeuge. In der praktischen Anwendung gab und gibt es häufig beide Arten von Einflüssen, so dass die ursprünglichen Methoden weiterentwickelt wurden.
Die Folge gibt einen Einblick in die geschichtliche Entwicklung von Korrelation, Regression und ANOVA und zeigt auf, wie diese Verfahren mit dem allgemeinen linearen Modell (general linear model, GLM) zusammehängen.
👉 Kinship & Correlation
Barbara Bredner, [email protected]
👉 Warum verwenden wir Visualisierungen?
"1 Bild sagt mehr als 1000 Worte." Dieser Satz ist absolut abgegriffen und trifft trotzdem den Nagel auf den Kopf: Wir Menschen können Informationen aus Bildern deutlich schneller aufnehmen und länger behalten als Text-Informationen. Alle Informationen in Bilder zu packen ist trotzdem nicht sinnvoll und wie gut eine Daten-Visualisierung funktioniert, hängt von vielen Aspekten ab.
Diese Folge liefert Ihnen Informationen dazu, wie Sie die beste Visualisierung für eine bestimmte Situation finden können und wann Visualisierungen eine schlechte Wahl sind. Sie bekommen Kriterien an die Hand, mit denen Sie gezielt ein passendes Visualisierungs-Tool auswählen können. Zum Ausprobieren von Tools finden Sie Links zu Datensätzen und einer Datensatz-Suchmaschine in den Shownotes.
👉 Storytelling with Data - Challenges & Exercises
Ich freue mich über Ihre Nachricht! Barbara Bredner, [email protected]
👉 Warum ist Digitalisierung & Automatisierung in der Datenanalyse wichtig?
Wir schreiben das Jahr 2022. Unendliche Möglichkeiten in der Digitalisierung liegen vor uns. Bei der Automatisierung in der Datenanalyse können wir (fast) alles realisieren. Bald wird jede Analyse auf Knopfdruck, oder noch besser einfach so voll automatisiert da sein. Wir müssen nur noch das auswählen und anschauen, was wir brauchen.
So weit sind wir noch lange nicht. (Zum Glück?) Aktuell muss präzise entschieden und ausgewählt werden, welche digitialisiert werden sollen und bei welchen Datenanalysen eine Automatisierung sinnvoll ist. Spoiler: Es kommt darauf an und wie immer gilt: alles gleichzeitig zu machen ist weder möglich noch sinnvoll.
👉 Goldratt, Eliyahu M. und Jeff Cox (2013). Das Ziel: Ein Roman über Prozessoptimierung. Campus Verlag. ISBN 978-3593398532
Ich freue mich über Ihre Nachricht! Barbara Bredner, [email protected]
👉 Warum können wir keine Gleichheit beweisen?
Sie wollen (oder müssen) zeigen, dass etwas gleich ist. Nichts leichter als das, oder? Wir nehmen einen statistischen Test und haben dann signifikante Gleichheit bewiesen. Das geht so aus mehreren Gründen nicht, die in dieser Folge erklärt werden. Außerdem erhalten Sie Hinweise darauf, wie Sie den Nachweis für "gleich genug" oder äquivalent machen können.
👉 Wellek, Stefan (2010). Testing Statistical Hypotheses of Equivalence and Noninferiority.
Barbara Bredner, [email protected]
The podcast currently has 51 episodes available.