Player FM - Internet Radio Done Right
0-10 subscribers
Checked 1+ y ago
Додано four роки тому
Вміст надано Barbara Bredner. Весь вміст подкастів, включаючи епізоди, графіку та описи подкастів, завантажується та надається безпосередньо компанією Barbara Bredner або його партнером по платформі подкастів. Якщо ви вважаєте, що хтось використовує ваш захищений авторським правом твір без вашого дозволу, ви можете виконати процедуру, описану тут https://uk.player.fm/legal.
Player FM - додаток Podcast
Переходьте в офлайн за допомогою програми Player FM !
Переходьте в офлайн за допомогою програми Player FM !
Подкасти, які варто послухати
РЕКЛАМА
For many travelers, Antarctica is a bucket-list destination, a once-in-a-lifetime opportunity to touch all seven continents. In 2023, a record-breaking 100,000 tourists made the trip. But the journey begs a fundamental question: What do we risk by traveling to a place that is supposed to be uninhabited by humans? And as the climate warms, should we really be going to Antarctica in the first place? SHOW NOTES: Kara Weller: The Impossible Dilemma of a Polar Guide Marilyn Raphael: A twenty-first century structural change in Antarctica’s sea ice system Karl Watson: First Time in Antarctica Jeb Brooks : 7 Days in Antarctica (Journey to the South Pole) Metallica - Freeze 'Em All: Live in Antarctica Learn about your ad choices: dovetail.prx.org/ad-choices…
Irgendwas mit Daten - Datenanalyse in der Industrie
Відзначити всі (не)відтворені ...
Manage series 2924427
Вміст надано Barbara Bredner. Весь вміст подкастів, включаючи епізоди, графіку та описи подкастів, завантажується та надається безпосередньо компанією Barbara Bredner або його партнером по платформі подкастів. Якщо ви вважаєте, що хтось використовує ваш захищений авторським правом твір без вашого дозволу, ви можете виконати процедуру, описану тут https://uk.player.fm/legal.
Auch in Ihren Daten stecken wertvolle Informationen! Möchten Sie mit Daten Ihre Produkte schneller entwickeln? Ihre Versuche effizienter auswerten? Ihre Prozesse besser verstehen und optimieren? Dann ist dieser Podcast für Sie. Barbara Bredner berät und begleitet seit 2003 Menschen in der Industrie bei der Datenauswertung in Forschung und Entwicklung, Prozess Engineering und Qualitätsmanagement. In ihrem Podcast erklärt sie, wie Sie eigene Daten auswerten und gezielt nutzen können. Sie gibt Tipps für solide und nachvollziehbare Analysen, damit Sie mit größerer Sicherheit und Klarheit belastbare Ergebnisse erreichen. Das Ziel sind abgesicherte Entscheidungen auf Grundlage Ihrer Datenanalysen!
…
continue reading
51 епізодів
Відзначити всі (не)відтворені ...
Manage series 2924427
Вміст надано Barbara Bredner. Весь вміст подкастів, включаючи епізоди, графіку та описи подкастів, завантажується та надається безпосередньо компанією Barbara Bredner або його партнером по платформі подкастів. Якщо ви вважаєте, що хтось використовує ваш захищений авторським правом твір без вашого дозволу, ви можете виконати процедуру, описану тут https://uk.player.fm/legal.
Auch in Ihren Daten stecken wertvolle Informationen! Möchten Sie mit Daten Ihre Produkte schneller entwickeln? Ihre Versuche effizienter auswerten? Ihre Prozesse besser verstehen und optimieren? Dann ist dieser Podcast für Sie. Barbara Bredner berät und begleitet seit 2003 Menschen in der Industrie bei der Datenauswertung in Forschung und Entwicklung, Prozess Engineering und Qualitätsmanagement. In ihrem Podcast erklärt sie, wie Sie eigene Daten auswerten und gezielt nutzen können. Sie gibt Tipps für solide und nachvollziehbare Analysen, damit Sie mit größerer Sicherheit und Klarheit belastbare Ergebnisse erreichen. Das Ziel sind abgesicherte Entscheidungen auf Grundlage Ihrer Datenanalysen!
…
continue reading
51 епізодів
Усі епізоди
×DIE Verteilung bei Zuverlässigkeit & Lebensdauer-Analysen Die Weibull-Verteilung 👉 Woher kommt die Weibullverteilung? 👉 Wie wird die Weibullverteilung bestimmt? 👉 Was sind typische Kennzahlen der Weibull-Verteilung? Bei der Zuverlässigkeits- und Lebensdauer-Analyse wird die Weibull-Verteilung zur Beschreibung des Ausfallverhaltens eingesetzt. Hierfür werden Kennzahlen wie Ausfallsteilheit und charakterstische Lebensdauer aus den Daten ermittelt. Oft werden auch bestimmte Kenngrößen wie die B10-Lebensdauer gefordert. In dieser Folge erfahren Sie, warum die Weibull-Verteilung gar nicht von Waloddi Weibull stammt. Es geht um Methoden, mit denen die Parameter der Weibull-Verteilung wie charakteristische Lebensdauer und Ausfallsteilheit ermittelt werden können und darum, welche Aussagen mit MTTF, MTBF und B10 gemacht werden können. Links 👉 80 Jahre Rosin-Rammler-Sperling-Bennett-Verteilung Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Wie belastbar sind Komponenten und Produkte? Zuverlässigkeit & Lebensdauer 👉 Was können Verfahren für Zuverlässigkeit & Lebensdauer? 👉 Wie entsteht die Badewannen-Kurve? 👉 Was sind Besonderheiten von Zuverlässigkeits-Tests? Methoden aus dem Bereich Zuverlässigkeit & Lebensdauer sind spezielle Auswertungsverfahren, mit denen die Haltbarkeit von Bauteilen, Produkten oder Systemen bewertet wird. Oft wird hierbei die so genannte Badewannenkurve als Modell für das Ausfallverhalten zu unterschiedlichen Zeitpunkten im Produktlebenszyklus verwendet. Daten aus dem Bereich Zuverlässigkeit und Lebensdauer haben einige Besondernheite wie beispielsweise geringe Anzahl bei gleichzeitig hoher Anforderung an die Aussagekraft der Analysen. Mit dieser Folge beginnt eine Serie zum Thema "Zuverlässigkeit und Lebensdauer". Freuen Sie sich auf Informationen zur Weibull-Verteilung, den Nachweis von Zuverlässigkeits-Anforderungen und der Ermittlung von Prüfmengen sowie der Einfluss-Analyse bei Belastungsprüfungen! Links 👉 Reliability Academy Stuttgart Haben Sie auch Themen-Ideen oder brauchen Sie Unterstützung bei der Datenanalyse? Schreiben Sie mir gerne! Barbara Bredner, post@irgendwas-mit-daten.io…
Von der Problemstellung über die Prozessbeschreibung zur Auswertung & Nutzung Was sind wichtige Schritte in der DoE? 👉 Womit fängt die DoE an? 👉 Welche Vorarbeiten sind notwendig bzw. sinnvoll? 👉 Wann ist ein Versuchsplan zu wenig? Viele Menschen denken bei der statistischen Versuchsplanung und -auswertung (Design of Experiments, DoE) zuerst daran, dass der Versuchsplan gut gewählt sein muss. Das stimmt, doch bevor es um die Auswahl und Erstellung eines geeigneten Versuchsplans geht, sind andere Schritte zur Vorbereitung notwendig. In dieser Folge erhalten Sie Informationen zu den ersten Schritten sowie zu sinnvollen und notwendigen Vorarbeiten bei der DoE. Sie bekommen Entscheidungskriterien dafür, ob ein Versuchsplan ausreichend ist oder weitere Versuche sinnvoll sein können. Links 👉 Statistische Versuchsplanung und -auswertung (DoE) Ablauf Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Kennzahlen für die Modell-Quaität bei attributiven Zielgrößen (Klassifizierung) In Ordnung oder nicht in Ordnung, das ist hier die Frage! 👉 Wie funktioniert die Bewertung der Erklär-Qualität bei attributiven Zielgrößen (gut/schlecht)? 👉 Was ist die Konfusionsmatrix? 👉 Welche Kennzahlen werden für die Erklär-Qualität bei der Klassifizierung eingesetzt? Vor der Nutzung von Modellen zum Beispiel für die Optimierung von Versuchs- oder Prozess-Einstellungen sollte immer die Aussagekraft oder Erkär-Qualität bewertet werden. In dieser Folge erfahren Sie, mit welchen Kennzahlen Machine Learning Modelle evaluiert werden, die eine attributive Zielgröße (gut/schlecht, in Ordnung/nicht in Ordnung) haben. Diese Methoden werden eingesetzt, wenn das Versuchs- oder Prozess-Ergebnis eine Klassifizierung ist. Je treffsicherer das ML Modell vorhersagen kann, in welcher Klasse oder Kategorie das Ergebnis landet, desto besser ist es für den produktiven Einsatz geeignet. In dieser Folge bekommen Sie Informationen und Erklärungen zur Konfusionmatrix und den wichtigsten Kennzahlen zur Bewertung der Erklär-Qualität von Modellen mit attributiven Zielgrößen. Darüber hinaus erfahren Sie, wie die ROC-Kurve entsteht und warum die Fläche unter der Kurve (AUC) für ein gutes Modell deutlich größer als 0,5 sein muss. Links 👉 Schwangere Männer Bild 👉 In Ordnung oder nicht in Ordnung - Erklär-Qualität bei attributiven Zielgrößen: Konfusionsmatrix, Accuracy, Precision, Recall, Speficity, F1-Score 👉 Visualisierung von ROC und AUC: What is AUC? Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Kennzahlen für die Modell-Quaität bei messbaren Zielgrößen (Regression) Wie gut funktionieren Machine Learning Modelle? 👉 Welche Qualitäts-Kriterien gibt es für Machine Learning? 👉 Wie wird Erklär-Qualität bei der Regression bewertet? 👉 Wann ist die Anpassungsgüte R² groß genug? Ein Modell mit Methoden des maschinellen Lernens wie z. B. Regression oder Klassifikation zu bauen ist einfach. Solche Modelle können uns beispielsweise optimale Arbeitspunkte liefern oder dabei helfen nachzuweisen, dass die Anforderungen in einem bestimmten Prozessfenster erfüllt werden. Bevor ein Modell produktiv genutzt wird, sollten Sie zuerst prüfen, ob das Modell gut genug ist. In dieser Folge erhalten Sie Informationen dazu, welche Kenngrößen für die Modell- bzw. Erklär-Qualität genutzt werden und warum die beliebteste Kennzahl, die Anpassungsgüte R², allein zu wenig ist. Alternative Kennzahlen wie die Prognosegüte liefern weitere wichtige Erkenntnisse über die Qualität des ML Modells. Links 👉 Barbara Bredner (2021) "NOT Statistik. Nachweise führen, Optimierungen finden, Toleranzen berechnen mit Minitab und R" 👉 Anber Arif: Cross Validation in Machine Learning 👉 Shervine Amidi: Machine Learning tips and tricks cheatsheet 👉 Adi Bronshtein: Train/Test Split and Cross Validation in Python Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
warum "normal-verteilt" eher nicht normal ist Wie funktioniert Einfluss-Analyse bei nicht-normalverteilten Ergebnissen? 👉 Warum ist das Ergebnis nicht normal-verteilt? 👉 Wie funktionieren verallgemeinerte lineare Modelle (GLM: Generalized Linear Models)? 👉 Sind Machine Learning Modelle auch GLMs? Die Normalverteilung von Messwerten wird für viele Methoden vorausgesetzt und sie scheint oft "das Normalste" von der Welt zu sein - bis echte Messwerte aufgenommen werden. Die sind selten normalverteilt und damit stellt sich schnell die Frage, warum die Messwerte nicht aus einer "normalen" Verteilung kommen. Mögliche Antworten darauf erhalten Sie in der aktuellen Folge. Außerdem geht es darum, wie Auswertungen bei nicht-normalverteilten Messdaten z. B. mit GLMs funktionieren und wie die verallgemeinerten linearen Modelle mit den Methoden des maschinellen Lernens zusammenhängen. Links 👉 Hilbe, S. (2010) "Generalized Linear Models", Encyclopedia of Mathematics 👉 Great Learnings Team (2021) "Generalized Linear Model | What does it mean?" 👉 Clark, M. (2019) "Generalized Additive Models" Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Unterschiede und Gemeinsamkeiten bei der Zusammenhangs- und Einfluss-Analyse Korrelation, Regression und ANOVA - alles das Gleiche? 👉 Woher kommen Korrelation und Regression? 👉 Woher kommt die Varianzanalyse (ANOVA)? 👉 Was sind die Gemeinsamkeiten von ANOVA und Regression? Wenn Korrelation, Regression und Varianzanalyse (ANOVA, Analysis Of Variance) das Gleiche wären, bräuchten wir keine unterschiedlichen Namen für die drei Verfahren - oder? Die Unterschiede sind tatsächlich eher historisch gewachsen und liegen weniger in den Unterschieden zwischen den Verfahren selbst. Klassischerweise wurde die Regression verwendet, wenn die Einflussgrößen messbar oder variabel sind, z. B. Temperatur und Druck. Die Varianzanalyse oder ANOVA bewertete klassischerweise kategoriale oder attributive Einflüsse wie verschiedene Maschinen oder Werkzeuge. In der praktischen Anwendung gab und gibt es häufig beide Arten von Einflüssen, so dass die ursprünglichen Methoden weiterentwickelt wurden. Die Folge gibt einen Einblick in die geschichtliche Entwicklung von Korrelation, Regression und ANOVA und zeigt auf, wie diese Verfahren mit dem allgemeinen linearen Modell (general linear model, GLM) zusammehängen. Links 👉 Kinship & Correlation 👉 Datenanalyse-Methoden & Leben von Ronald A. Fisher 👉 Rutherford, Andres (2000) "Introducing Anova and Ancova: A GLM Approach (Introducing Statistical Methods)" Sage Publications Inc., ISBN 9780761951612 👉 Stigler, Stephen M. (1986) "The History of Statistics: The Measurements of Uncertainity Before 1900" Harvard University Press, ISBN 9780674403406 Ich freue mich über Ihre Ideen & Nachrichten! Barbara Bredner, post@irgendwas-mit-daten.io…
Bunte Bildchen sind super - oder etwa nicht? Datenvisualisierungen & Tools 👉 Warum verwenden wir Visualisierungen? 👉 Wie finde ich die "richtige" Visualisierung? 👉 Was ist das beste Tool für Datenvisualsierungen? "1 Bild sagt mehr als 1000 Worte." Dieser Satz ist absolut abgegriffen und trifft trotzdem den Nagel auf den Kopf: Wir Menschen können Informationen aus Bildern deutlich schneller aufnehmen und länger behalten als Text-Informationen. Alle Informationen in Bilder zu packen ist trotzdem nicht sinnvoll und wie gut eine Daten-Visualisierung funktioniert, hängt von vielen Aspekten ab. Diese Folge liefert Ihnen Informationen dazu, wie Sie die beste Visualisierung für eine bestimmte Situation finden können und wann Visualisierungen eine schlechte Wahl sind. Sie bekommen Kriterien an die Hand, mit denen Sie gezielt ein passendes Visualisierungs-Tool auswählen können. Zum Ausprobieren von Tools finden Sie Links zu Datensätzen und einer Datensatz-Suchmaschine in den Shownotes. Links 👉 Storytelling with Data - Challenges & Exercises 👉 Kaggle Datasets 👉 Open Data on AWS 👉 Datensatz-Suchmaschine von Google 👉 JMP Graph Builder Beispiele 👉 R package esquisse für Grafiken in R über eine Benutzeroberfläche 👉 Gartner Report: Magic Quadrant for Analytics and BI Platforms 2021 Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Wie aus unbegrenzten Möglichkeiten gezielte Aktionen werden Wie sinnvoll sind Digitalisierung & Automatisierung in der Datenanalyse? 👉 Warum ist Digitalisierung & Automatisierung in der Datenanalyse wichtig? 👉 Wie sinnvoll ist die Digitalisierung von Daten? 👉 Wie hilfreich ist die Automatisierung bei der Datenauswertung? Wir schreiben das Jahr 2022. Unendliche Möglichkeiten in der Digitalisierung liegen vor uns. Bei der Automatisierung in der Datenanalyse können wir (fast) alles realisieren. Bald wird jede Analyse auf Knopfdruck, oder noch besser einfach so voll automatisiert da sein. Wir müssen nur noch das auswählen und anschauen, was wir brauchen. So weit sind wir noch lange nicht. (Zum Glück?) Aktuell muss präzise entschieden und ausgewählt werden, welche digitialisiert werden sollen und bei welchen Datenanalysen eine Automatisierung sinnvoll ist. Spoiler: Es kommt darauf an und wie immer gilt: alles gleichzeitig zu machen ist weder möglich noch sinnvoll. Links 👉 Goldratt, Eliyahu M. und Jeff Cox (2013). Das Ziel: Ein Roman über Prozessoptimierung. Campus Verlag. ISBN 978-3593398532 👉 Seven Ways You Interact With AI Before Lunch 👉 Anwendungsfall-Canvas von Datentreiber 👉 Datenstrategie-Canvas von Datentreiber Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Warum sich Gleichheit nicht beweisen lässt signifikant gleich - geht das überhaupt? 👉 Warum können wir keine Gleichheit beweisen? 👉 Wie funktioniert der Äquivalenz-Nachweis? 👉 Wofür können wir Äquivalenz-Nachweise verwenden? Sie wollen (oder müssen) zeigen, dass etwas gleich ist. Nichts leichter als das, oder? Wir nehmen einen statistischen Test und haben dann signifikante Gleichheit bewiesen. Das geht so aus mehreren Gründen nicht, die in dieser Folge erklärt werden. Außerdem erhalten Sie Hinweise darauf, wie Sie den Nachweis für "gleich genug" oder äquivalent machen können. Literatur 👉 Wellek, Stefan (2010). Testing Statistical Hypotheses of Equivalence and Noninferiority. ed. Chapman und Hall. ISBN 9781439808184. https://www.routledge.com/Testing-Statistical-Hypotheses-of-Equivalence-and-Noninferiority/Wellek/p/book/9781439808184# Ich freue mich auf Ihre Nachricht Barbara Bredner, post@irgendwas-mit-daten.io…
Wie kann die Gleichheit oder Äquivalenz von Messmethoden geprüft werden? Wann sind Messmethoden gleich genug? 👉 Wann vergleichen wir Messmethoden? 👉 Wie funktioniert der Vergleich über die Gage R&R? 👉 Wie wird der Gleichheits-Nachweis über die Deming-Regression geführt? Beim Thema Messunsicherheit gibt es neben den oft genannten Einflüssen Messwiederholung (Repeatability), Streuung durch verschiedene Prüfer:innen und Einfluss der ausgewählten Teile oft auch die Überlegung, die Messgenauigkeit an unterschiedlichen Standorten zu vergleichen. Beispielsweise kann untersucht werden, wie groß die Unterschiede zwischen Labor, Fertigung und Warenausgangskontrolle oder beim Kunden und beim Lieferanten sind. Der zweite große Anwendungsbereich für den Vergleich von Messmethoden liegt im regulierten Bereich. Dort werden neben den Fertigungsmethoden und Materialien auch Messmethoden festgeschrieben. Die Entwicklung neuer Messsysteme wie beispielsweise Sensoren bringt immer wieder neue Optionen auf den Markt, die Messwerte präziser oder wirtschaftlicher aufnehmen können. Bevor solche Messmethoden im regulierten Bereich eingesetzt werden können, muss nachgewiesen werden, dass die Messwerte der beiden Methoden gleich genug ist. Links 👉 VDI: Volumenerfassung für Schüttgut mit Lidar Sensor (2022) 👉 CLSI: EP09c Measurement Procedure Comparison and Bias Estimation Using Patient Samples (2018), 2. Auflage, Clinical and Laboratory Standards Institute (CLSI), ISBN 9781684400072 👉 Biljak, Vanja Radišić: Passing & Bablok and Deming Regression (2019) Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Was Sie schon immer zur Mess-System-Analyse wissen wollten Wann ist eine MSA sinnvoll und wie wird sie "richtig" gemacht? 👉 Warum ist eine Mess-System-Analyse überhaupt sinnvoll? 👉 Wann sollte eine MSA durchgeführt werden? 👉 Wie wird eine MSA richtig gemacht? Mess-System-Analysen scheinen vor der Durchführung oft ziemlich überflüssiges Futter für den Papiertiger zu sein. In der Auswertung von MSAs zeigt sich oft, dass die Mess-Unsicherheit deutlich größer als angenommen (und vertretbar) ist. In dieser Folge erfahren Sie, wie oft bzw. wann eine Mess-System-Analyse durchgeführt werden sollte und welche Konsequenzen es hat, wenn auf die MSA verzichtet wird. Sie bekommen eine Orientierungshilfe für die Auswahl geeigneter Verfahren und Methoden sowie Hinweise zu Handbüchern. Links 👉 AIAG (2010). Measurement System Analysis (MSA-4). Hrsg. von Automotive Industry Action Group (AIAG). 4. Aufl., ISBN 9781605342115 👉 VDA (2021). Band 5: Mess- und Prüfprozesse. Hrsg. von Verband der Automobilindustrie (VDA). 3. überarbeitete Auflage 2021 👉 ICH (1994). Q2(R1) Validation of Analytical Procedures: Text and Methodology. International Conference on Harmonisation of Technical Requirements for Registration of Pharmaceuticals for Human Use (ICH) Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Warum Boxplots eine meiner Lieblings-Grafiktypen sind Wozu brauche ich Boxplots? 👉 Was sind Boxplots? 👉 Wann helfen mir Boxplots? 👉 Was können Boxplots nicht? Boxplots sind wunderbar. Mit ihnen lassen sich Strukturen und Muster erkennen, die in anderen Grafik-Typen unsichtbar bleiben, deshalb vertieft die heutige Folge Boxplots und ihre Möglichkeiten und zeigt auf, wo die Grenzen von Boxplots liegen. Denn Boxplots sind eher ein Schweizer Taschenmesser als ein statistisches Testverfahren. Links 👉 Sternchen im Boxplot sind keine Ausreißer Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Welche Fähigkeiten und Fertigkeiten braucht ein Data Scientist? Wie werde ich Data Scientist? 👉 Welche Schwerpunkte wünsche ich mir? 👉 Wo brauche ich Ausbildung oder Erfahrung? 👉 Welches Unternehmen passt zu mir? Natürlich können Sie einfach Data Science studieren. Vielleicht kommen Sie auch im Laufe Ihres Berufslebens an den Punkt, dass Sie sich beruflich neu orientieren möchten. In dieser Folge erhalten Sie Tipps und Tricks, wie Sie sich die notwendige Ausbildung und Erfahrung verschaffen können. Daneben geht es um Möglichkeiten, ein passendes Unternehmen zu finden und wie Sie schon vor der Bewerbung einschätzen können, ob ein Unternehmen zu Ihnen passt. Ich freue mich über Ihre Nachricht & Themenwünsche! Barbara Bredner, post@irgendwas-mit-daten.io Fähigkeiten & Ausbildung (Auswahl) 👉 Welche Fähigkeiten brauchen Data Strategy Designer, Data Engineer, Data Analyst, Data Scientist und Machine Learning Engineer? 👉 Gelungene Kommunikation mit aktivem Zuhören 👉 Gordon, Thomas (2005). Managerkonferenz: Effektives Führungstraining. Heyne Verlag. ISBN 9783453600003 👉 Gordon, Thomas (2012). Familienkonferenz: Die Lösung von Konflikten zwischen Eltern und Kind. Heyne Verlag. ISBN 9783453602328 👉 Datenstrategie-Design (DE+EN) 👉 Udemy: Data Science Kurse (DE+EN) 👉 coursera: Data Science Kurse (DE+EN) 👉 Meetup: Data Science (DE+EN) 👉 Youtube: Data Professor (EN) 👉 Youtube: Julia Silge, R (EN) Projekte, Competitions, Erfahrung & Austausch (Auswahl) 👉 Kaggle Competitions (EN) 👉 Kaggle Datasets (EN) 👉 Hackathons in Deutschland 👉 Machine Learning Communities (EN) 👉 Storytelling with Data Community (EN) 👉 Stackoverflow (EN) 👉 DataTalks.Club Slack-Channel Data Scientist Jobs und andere Daten-Jobs finden (Auswahl) 👉 stepstone Data Scientist 👉 indeed Data Scientist 👉 glassdoor Data Scientist 👉 Liste von Startups die Daten-Berufe einstellen mit Zahlen zum Funding (EN) 👉 Meetup: Data Science (DE+EN)…
Data Desing Strategy, Data Engineering, Data Analyst, Data Scientist, ML Engineer Was macht eigentlich ein Data Scientist? 👉 Was macht eigentlich ein Data Scientist? 👉 Was muss ein Data Scientist können? 👉 Welche anderen Data xxx Jobs gibt es? Der Spruch "Daten sind das neue Öl" ist mittlerweile etwas abgegriffen. Es ist klar, dass Daten Informationen enthalten. Je komplexer die Daten sind, desto schwieriger ist die "Ölbohrung". Unterschiedliches Wissen und Erfahrungen müssen kombiniert werden, wenn Daten komplexer werden. In dieser Folge geht es darum, was die Aufgaben von Data Scientists ist und welche anderen Daten-Berufe es gibt. Links 👉 Machine Learning Mindmap 👉 Welche Fähigkeiten brauchen Data Strategy Designer, Data Engineer, Data Analyst, Data Scientist und Machine Learning Engineer? 👉 Was ist Data Governance Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

warum Cp und Cpk gierige Kennzahlen (greedy numbers) sind Wie viele Werte braucht die Prozessfähigkeit? 👉 Wo steht wie viele Werte die Prozessfähigkeit braucht? 👉 Sind Konfidenzintervalle eine Alternative? 👉 Welche Auswege gibt es, wenn zu wenig Messwerte vorliegen? Wenn Prozessfähigkeiten (fast) überall gefordert werden, dann müssen diese Kennzahlen doch auch mit vertretbarem Mess-Aufwand berechnet werden können! In der aktuellen Folge erfahren Sie, warum diese Aussage in der Praxis meist falsch ist und welche Auswege es gibt, wenn Sie zu wenig Messwerte für aussagekräftige Prozessfähigkeitswerte haben. Normen & Literatur Anzahl Messwerte für normale und nicht-normale Verteilungen DIN ISO 22514-1:2016-08 "Statistische Methoden im Prozessmanagement - Fähigkeit und Leistung - Teil 1: Allgemeine Grundsätze und Begriffe (ISO 22514-1:2014)" Deutsches Institut für Normung (DIN) e. V., Beuth Verlag Anzahl Messwerte ohne Vorgabe einer Verteilung (nicht-parametrisch, verteilungsfrei) DIN ISO 22514-2:2019-07 "Statistische Verfahren im Prozessmanagement - Fähigkeit und Leistung - Teil 2: Prozessleistungs- und Prozessfähigkeitskenngrößen von zeitabhängigen Prozessmodellen (ISO 22514-2:2017)" Deutsches Institut für Normung (DIN) e. V., Beuth Verlag Pearn, W. L. und Samuel Kotz (2006). "Encyclopedia And Handbook of Process Capability Indices : A Comprehensive Exposition of Quality Control Measures." World Scientific. ISBN 9789812567598 Wie viele Messwerte nehmen Sie für die Prozessfähigkeit? Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

Warum Prüfpläne nach Norm ungeeignet für die Absicherung sind Prüfmengen nach ISO 2859, ISO 3951 und Squeglia 👉 Wie funktioniert die Prüfmengen-Ermittlung nach ISO 2859 und ISO 3951? 👉 Was ist bei zero-acceptance-Plänen von Squeglia anders? 👉 Warum sind AQL-Normen und zero-acceptance Pläne ungeeignet für die Absicherung? Mein Lieblingszitat im Zusammenhang mit Prüfplänen nach Norm oder zero-acceptance Plänen (Plänen von Squeglia mit Annahmezahl 0): Für jedes Problem gibt es eine Lösung, die einfach, klar und falsch ist. Henry Louis Mencken Warum Prüfpläne nach Norm in den seltensten Fällen eine gute Wahl für die Absicherung sind und welche Fallstricke sich in den Normen und zero-acceptance-Plänen verstecken, das erfahren Sie in der aktuellen Folge. Für die Absicherung sind diese Pläne gerade bei guter Qualitätslage (z. B. Cpk > 1,33) ungeeignet. Normen und zu-Null-Pläne nach Squeglia DIN ISO 2859-1:2014. "Annahmestichprobenpüfung anhand der Anzahl fehlerhafter Einheiten oder Fehler (Attributprüfung) - Teil 1: Nach der annehmbaren Qualitätsgrenzlage (AQL) geordnete Stichprobenpläne für die Prüfung einer Serie von Losen (ISO 2859-1:1999 + Cor. 1:2001 + Amd.1:2011)." Deutsches Institut für Normung (DIN) e. V., Beuth Verlag DIN ISO 2859-2:2021. "Annahmestichprobenprüfung anhand von Attributen - Teil 2: Nach der zurückzuweisenden Qualitätsgrenzlage (LQ) geordnete Stichprobenanweisungen für die Prüfung einzelner Lose (ISO 2859-2:2020)." Deutsches Institut für Normung (DIN) e. V., Beuth Verlag DIN ISO 3951-1:2016. "Verfahren für die Stichprobenprüfung anhand quantitativer Merkmale (Variablenprüfung) - Teil 1: Spezifikation für Einfach-Stichprobenanweisungen für losweise Prüfung, geordnet nach der annehmbaren Qualitätsgrenzlage (AQL) für ein einfaches Qualitätsmerkmal und einfache AQL (ISO 3951-1:2013)." Deutsches Institut für Normung (DIN) e. V., Beuth Verlag Squeglia, Nicholas L. (2008). "Zero acceptance number sampling plans." Auflage, American Society for Quality (ASQ), ISBN 9780873897396, zero acceptance sampling plan (Squeglia) Verwenden Sie noch Normen? Ich freue mich auf Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

Stichprobenumfang für variable Merkmale bei der Annahmestichprobenprüfung Wie viele Messwerte braucht die Absicherung? 👉 Was wird bei der variablen Messung über Stichproben abgesichert? 👉 Wie hoch sind typische statistische Risiken? 👉 Welche Prüfmengen werden für typische Anwendungsfälle benötigt? 👉 Was kann ich tun, wenn der berechnete Stichprobenumfang zu groß ist? Messwerte werden oft verwendet um zu entscheiden, ob ein Prozess eine hohe Qualität hat oder ein Merkmal innerhalb der Toleranz liegt. Wenn es darum geht, abgesicherte Entscheidungen mit begrenzten statistischen Risiken alpha und beta zu treffen, werden verschiedene Kenngrößen in der Berechnung verwendet. In der aktuellen Folge erhalten Sie Informationen dazu, welche Kenngrößen für die Berechnung des Stichprobenumfangs bei Messgrößen bzw. variablen Merkmalen wie Länge oder Durchmesser benötigt werden. Sie erfahren, wie groß der Stichprobenumfang für typische Anwendungsfälle ist und was Sie tun können, wenn dieser Stichprobenumfang ökonomisch, zeitlich oder aus anderen Gründen nicht umsetzbar erscheint. DAS Buch zu Stichproben 👉 Mathews, Paul (2010) "Sample Size Calculations: Practical Methods for Engineers and Scientists" Mathews Malnar und Bailey, Inc. ISBN 9780615324616 Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

Prüfmengen für attributive Prüfungen Wie viel müssen wir denn jetzt prüfen? 👉 Was wird bei attributiven Prüfmengen abgesichert? 👉 Wie hoch sind typische statistische Risiken? 👉 Welche Prüfmengen werden für typische Anwendungsfälle benötigt? 👉 Was tun, wenn die ermittelte Prüfmenge zu groß ist? Nach den beiden Folgen zu Grundlagen und Kriterien für gute Stichproben beschäftigen wir uns in der aktuellen Folge mit Prüfmengen für attributive Prüfungen. Attributive Prüfungen sind u. a. Dichtigkeitsprüfungen wie der Bubble Test oder Funktionsprüfungen (Licht brennt, Licht brennt nicht). Es geht um die Kenngrößen AQL und LQ und um die statistischen Risiken alpha (Risiko für Fehler 1. Art) und beta (Risiko für Fehler 2. Art). Nach den Erklärungen, was bei der Ermittlung des Prüfumfangs wichtig ist, wird anhand von zwei typischen Beispielen die Prüfmenge ermittelt. Gerade bei hoher Qualität und entsprechend kleiner Ausschussrate oder ppm-Zahl ergeben sich oft riesige Prüfmengen, die nicht umsetzbar sind. Mögliche Auswege aus diesem Dilemma erhalten Sie am Ende der Folge. DAS Buch zu Stichproben 👉 Mathews, Paul (2010) "Sample Size Calculations: Practical Methods for Engineers and Scientists" Mathews Malnar und Bailey, Inc. ISBN 9780615324616 Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Kriterien für Repräsentativität, Verzerrtheit und Eignung Was ist eine gute Stichprobe? Was ist eine repräsentative Stichprobe / Prüfmenge? Wo können Verzerrungen auftreten? Was bedeutet "geeignet"? Stichproben sind die Grundlage für datenbasierte Entscheidungen. Je höher die Stichproben-Qualität ist, desto belastbarer ist das Fundament, auf dem Entscheidungen getroffen werden. In der aktuellen Folge geht es darum, wie über die Bewertung von Repräsentativität, Unverzerrtheit (unbiased) und Eignung einer Stichprobe die Qualität ermittelt und bei Bedarf verbessert werden kann. Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Stichproben-Umfänge und Prüfmengen Darf's ein bisschen weniger sein? Folge 30 ist der Beginn einer weiteren Miniserie, dieses Mal zum Thema Stichproben, Stichprobenumfang und Prüfmenge. Warum berechnen wir Stichprobenumfänge und Prüfmengen? Welche Risiken werden abgesichert? Für welche Anwendungsfälle gibt es Berechnungs-Methoden? Die erste Folge der Miniserie beschäftigt sich mit den Rahmenbedingungen für Stichprobenumfänge und Prüfmengen. Es geht darum, was über Stichproben abgesichert werden kann und wo die Grenzen liegen. Beschrieben werden die statistischen Risiken: Fehlalarmrisiko (alpha) und Risiko zu Übersehen (beta) und erklärt, warum sich damit ein fieser Knoten im Kopf bildet. Abgeschlossen wird die Folge durch typische Anwendungsfälle aus dem industriellen Umfeld. DAS Buch zu Stichproben Mathews, Paul (2010) "Sample Size Calculations: Practical Methods for Engineers and Scientists" Mathews Malnar und Bailey, Inc. ISBN 9780615324616 Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
allgemeine und spezielle Literatur-Empfehlungen Lieblingsbücher zur Datenanalyse 👉 historische Bücher 👉 allgemeine Datenanalyse 👉 spezielle Themen Ich werde oft gefragt, welche Bücher ich für Grundlagen und Vertiefung beim Thema Datenanalyse oder zu speziellen Bereichn empfehlen kann. In dieser Folge stelle ich meine Auswahl an Lieblingsbüchern vor, die Ihnen beim Verständnis und der Umsetzung helfen können. historische Bücher Shewhart, Walter A. (1939). "Statistical Method from the Viewpoint of Quality Control (Dover Books on Mathematics)" Hrsg. von W. Edwards Deming. Dover Publications. ISBN 9780486652320. Nachdruck von 1986. Duncan, Acheson Johnston (1986) "Quality Control and Industrial Statistics" 5. Auflage, Irwin. ISBN 9780256035353 Tukey, John W. 1977 "Exploratory Data Analysis" Pearson. ISBN 9780201076165 Datenanalyse allgemein Ludwig Fahrmeir, Christian Heumann, Rita Künstler, Iris Pigeot und Gerhard Tutz (2012). "Statistik: Der Weg zur Datenanalyse (Springer-Lehrbuch)" 8. Auflage, Springer, ISBN 9783662503713 Wappis, Johann und Berndt Jung (2016) "Null-Fehler-Management - Umsetzung von Six Sigma." 5. Auflage, Hanser. ISBN 9783446446304 Barbara Bredner (2021) "NOT Statistik. Nachweise führen, Optimierungen finden, Toleranzen berechnen mit Minitab und R" 2. Auflage, Tredition, ISBN: 9783347004818 NOT-Statistik Spezielle Themen Montgomery, Douglas C. (2020). "Introduction to Statistical Quality Control" 8. Auflage, Wiley. ISBN 9781119657118 Mathews, Paul (2010) "Sample Size Calculations: Practical Methods for Engineers and Scientists" Mathews Malnar und Bailey, Inc. ISBN 9780615324616 Mark J. Anderson und Patrick J. Whitcomb (2015). "DOE Simplified - Practical Tools for Effective Experimentation" 3. Auflage, Productivity Press. ISBN 9781482218947 Mark J. Anderson und Patrick J. Whitcomb (2016). "RSM Simplified - Optimizing Processes Using Response Surface Methods for Design of Experiments" 2. Auflage, Productivity Press. ISBN 9781498745987 Was sind Ihre Lieblingsbücher? Ich freue mich über Ihre Tipps! Barbara Bredner, post@irgendwas-mit-daten.io…
Wie wir uns an den eigenen Haaren aus dem Sumpf ziehen Wofür brauchen wir Simulationen? Wofür brauchen wir Simulationen bei der Datenanalyse? Wie funktioniert Simulation mit Funktionen? Was sind Bootstrapping, Jackknife- und Monte Carlo-Simulationen? In der aktuellen Folge geht es um die Unterschiede und Gemeinsamkeiten sowie das allgemeine Vorgehen bei Simulationen in der Datenanalyse. Mit Simulationen können Ergebnisse aus der statistischen Versuchsplanung (DoE), Ursache-Wirkungs-Beziehungen oder allgemein aus dem maschinellen Lernen genutzt werden, um weitere Erkenntnisse über einen Versuch oder Prozess zu erhalten. Dabei werden unterschiedliche Ansätze wie Monte Carlo oder Bootstrap verwendet. Sie erhalten einen Einblick in die Methoden, Techniken und die Umsetzung. Fragen & Anmerkungen? gerne! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
gute & schlechte Grafiken und Tests Messreihen vergleichen Warum vergleichen wir Messreihen? Wie funktioniert der Vergleich mit Grafiken? Welche Signifikanztests gibt es für den Vergleich von Messreihen? "Das neue Werkzeug ist viel besser!" oder "Können wir anderes Material einsetzen und genauso gut produzieren?" sind zwei Fragen, bei denen das solide Bauchgefühl gut durch zahlenbasierte Methoden abgesichert werden kann. Beim Vergleich von Messreihen werden dafür Grafiken und Tests eingesetzt, nachdem das Ziel bzw. die Frage klar formuliert wurde. Sie erhalten in der aktuellen Folge Hinweise zu guten und schlechten Grafiken und Tests für den Vergleich von Messreihen. Links 👉 Messreihen vergleichen mit Grafiken 👉 NIST/SEMATECH e-Handbook of Statistical Methods 8.2.2.3 Likelihood Ratio Test Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

Wann sind Messwerte normalverteilt? Wie funktioniert Verteilungsprüfung? Wie funktioniert die grafische Verteilungsprüfung? Welcher Verteilungstest ist der beste? Warum ist es eine ganz schlechte Idee, die Verteilung automatisch auszuwählen? Wir arbeiten gerne mit bekannten Methoden, deshalb werden in der Verteilungsprüfung oft Histogramme mit Verteilungskurven angeschaut oder der Kolmogorov-Smirnov-Test gerechnet. Warum beide Methoden weniger gut geeignet sind und welche besseren Auswertungsverfahren es gibt, darum geht es in der heutigen Folge von "Irgendwas mit Daten". Außerdem wird die Frage beantwortet, warum die automatische Verteilungsauswahl oder Verteilungsidentifikation selten gute Ergebnisse liefert und welche Schritte besser und zuverlässiger zu einer gut gewählten Verteilung führen. Links 👉 NCSS: Probability Plots / Formeln für Wahrscheinlichkeitsnetze 👉 Groß, Jürgen: A Normal Distribution Course Wahrscheinlichkeitsnetz bzw. QQ-Plot S. 98 👉 Bredner, Barbara und Stanger, Karl: Fähigkeit bei technisch begrenzten Merkmalen 👉 Johnson, Norman L.; Kotz, Samuel Kotz; Balakrishnan, Narayanaswamy: Continuous Univariate Distributions, Volume 1 👉 Johnson, Norman L.; Kotz, Samuel Kotz; Balakrishnan, Narayanaswamy: Continuous Univariate Distributions, Volume 2 👉 The American Statistician: The ASA Statement on p-Values: Context, Process and Purpose Wie halten Sie es mit der Verteilungsprüfung? Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Eigentlich ist doch sowieso alles normalverteilt, oder nicht? Wofür brauchen wir Verteilungen? Wofür brauchen wir Verteilungen? Gibt es Alternativen? Wie wird die richtige Verteilung ausgewählt? Warum sind Messwerte oft nicht-normalverteilt? Prozessfähigkeit, statistische Testverfahren und Toleranzermittlung sind nur einige Themenbereiche, in denen Verteilungen eine wichtige Rolle spielen. Oft ist die Auswahl der "richtigen" Verteilung schwierig, weil unklar ist, welche Kriterien für die Verteilungsauswahl verwendet werden sollen. Eine Alternative sind Auswertungsmethoden ohne Verteilungsannahme, doch auch diese haben Tücken. In der aktuellen Folge geht es deshalb um den Nutzen von Verteilungen, die Auswahl und alternative, verteilungsfreie Verfahren. Links 👉 Büning, Herbert und Trenkler, Götz "Nichtparametrische statistische Methoden" 👉 Forbes, Catherine et al. "Statistical Distributions" Wofür brauchen Sie Verteilungen? Schreiben Sie mir gerne an post@irgendwas-mit-daten.io…
Konfidenz-, Prognose- und Toleranzintervalle Buchstabensuppe: KI, PI und TI Was sind KI, PI und TI? Welche Unterschiede und Gemeinsamkeiten gibt es? Wann wird welches Intervall verwendet? Wenn es darum geht, die Unschärfe von Ergebnisse greifbar zu machen, werden Streubereiche verwendet. Die drei häufigsten Formen sind Konfidenz-, Prognose- und Toleranzintervall, kurz KI, PI und TI. In der Folge wird erklärt, wie die Unsicherheit in den Formeln berücksichtigt wird und wann welches Intervall am besten geeignet ist. Über das Beispiel Spritverbrauch bekommen Sie eine verständliche "Übersetzung" der Grenzwerte und damit eine Interpretation dafür, welche Aussagen mit KI, PI und TI möglich sind. Links 👉 Beispiel Spritverbrauch - KI PI TI 👉 Termin für Beratungsgespräch Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

Warum Menschen bei Data Science fasziniert und bei Statistik abgeschreckt sind Data Science ist viel cooler als Statistik! Warum ist Statistik fragwürdig und langweilig? Was macht Data Science aufregend und anders? Wieso ist Data Science cooler als Statistik? Daten sind genauso wertvoll für ein Unternehmen wie Gebäude und Maschinen! Diese Aussage wirkt fast schon abgegriffen und sie sind trotzdem wahr. Dank Data Science sind wir heute in der Lage, aus Daten wertvolle Informationen zu extrahieren. Aber hat die Statistik nicht ein ähnliches Ziel? In der aktuellen Folge geht es um die Unterschiede und Gemeinsamkeiten von Data Science und Statistik und die Frage, warum Data Science (scheinbar?) so viel cooler als Statistik ist. Links 👉 Unstatistik 👉 50 years of Data Science 👉 PC-Preis im Jahr 1990, verglichen mit 2014 Finden Sie auch, dass Data Science cooler als Statistik ist? Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Wie aus Versuchsergebnissen Nachweise, Optimierung und Toleranzen werden DoE 5/5: Ergebnisse nutzen Was ist das entscheidende Ergebnis der Auswertung? Wofür und wie wird das Auswertungs-Ergebnis genutzt? Was gehört zum Abschluss der DoE? Statistische Versuchsplanung und -auswertung (DoE) ist aufwändig. Im fünften und letzten Teil der DoE-Serie geht es um die Frage, ob sich dieser Aufwand lohnt und welche Ergebnisse sich aus den Versuchen ableiten lassen. Diese Ergebnisse lassen sich für Nachweis Optimierung Toleranzermittlung Qualifizierung Statistische Prozesskontrolle (SPC) nutzen - für ein Ziel oder alle und es sind keine weiteren Versuche notwendig! Am Ende des DoE-Projekts werden die Erkenntnisse und Entscheidungen dokumentiert und präsentiert. Danach wird das Projekt abgeschlossen. Machen Sie Ihre eigene DoE! In den Links unten finden Sie eine Bauanleitung für einen Papier-Rotor und alle anderen Planungstools. Versuchen Sie doch einfach selbst, das Rotor-Design mit DoE-Methoden zu optimieren! ❓Schaffen Sie es, ein besseres Optimum als ich zu erreichen❓ In der 5-teiligen Serie zur DoE geht es um die Folge 18: Grundlagen Folge 19: Planung Folge 20: Versuchspläne Folge 21: Auswertung Folge 22: Nutzung der Ergebnisse Links allgemeine Informationen zum Rotor 👉 Bauplan Rotor 👉 Projektbeschreibung DoE Rotor 👉 Projektdokumentation DoE Rotor 07.10. Ergebnisse und Auswertung 28 Versuche 👉 Versuchsplan mit 28 Versuchen und Ergebnissen (Excel) 👉 Versuchsplan mit 28 Versuchen Auswertung (JMP / zip-Datei) Ergebnisse und Auswertung 24 Versuche 👉 Einfluss- und Zielgrößen DoE Rotor v2 👉 Versuchsplan mit 24 Versuchen und Ergebnissen (Excel) 👉 Versuchsplan mit 24 Versuchen Auswertung (JMP / zip-Datei) Bestätigungsversuche 👉 Bestätigungsversuche optimales Design (Excel) 👉 Bestätigungsversuche Auswertung (JMP) Software für die Auswertung 👉 JMP 👉 Minitab 👉 Design Expert Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Wie die relevanten Informationen aus den Versuchsergebnissen geholt werden DoE 4/5: Auswertung Welche Grafiken und Methoden gehören zur Auswertung von Versuchsergebnissen? Wie werden Ursache-Wirkungs-Beziehungen in den Versuchsdaten gefunden? Welche Kriterien gibt es für die Bewertung der Aussagekraft? Die vierte Folge der DoE-Miniserie liefert umsetzbare Methoden für die Auswertung von Versuchsergebnissen. Neben der Plausibilitätsprüfung geht es um die Identifikation relevanter bzw. signifikanter Einflüsse und die Bewertung, wie gut die Versuchsergebnisse statistisch erklärt werden können. Am Ende der Auswertungsphase ist damit klar, ob die Ergebnisse belastbar genug für Nachweis, Optimierung oder Toleranzrechnung sind. Machen Sie Ihre eigene DoE! In den Links unten finden Sie eine Bauanleitung für einen Papier-Rotor und alle anderen Planungstools. Versuchen Sie doch einfach selbst, das Rotor-Design mit DoE-Methoden zu optimieren! ❓Schaffen Sie es, ein besseres Optimum als ich zu erreichen❓ In der 5-teiligen Serie zur DoE geht es um die Folge 18: Grundlagen Folge 19: Planung Folge 20: Versuchspläne Folge 21: Auswertung Folge 22: Nutzung der Ergebnisse Links allgemeine Informationen zum Rotor 👉 Bauplan Rotor 👉 Projektbeschreibung DoE Rotor 👉 Projektdokumentation DoE Rotor 30.09. Ergebnisse und Auswertung 28 Versuche 👉 Versuchsplan mit 28 Versuchen und Ergebnissen (Excel) 👉 Versuchsplan mit 28 Versuchen Auswertung (JMP / zip-Datei) Ergebnisse und Auswertung 24 Versuche 👉 Einfluss- und Zielgrößen DoE Rotor v2 👉 Versuchsplan mit 24 Versuchen und Ergebnissen (Excel) 👉 Versuchsplan mit 24 Versuchen Auswertung (JMP / zip-Datei) Software für die Auswertung 👉 JMP 👉 Minitab 👉 Design Expert Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Mehr Informationen aus Versuchen mit einem DoE-Plan! DoE 3/5: Versuchspläne Was ist ein statistischer Versuchsplan oder DoE Design? Welche Ursache-Wirkungs-Beziehungen können statistische Versuchspläne liefern? Wie wird der beste Versuchsplan ausgewählt? Das Ziel der dritten Folge ist eine Vorstellung der Möglichkeiten, die statistische Versuchspläne bieten. Es geht um die Eigenheiten von DoE-Designs und Kriterien, nach denen der bestmögliche Versuchsplan ausgewählt wird. Wie so oft ist auch hier das Ziel, so einfach wie möglich und mit so wenig Versuchen wie nötig auszukommen und dabei trotzdem alle Effekte untersuchen zu können, die bewertet werden sollen. Machen Sie Ihre eigene DoE! In den Links unten finden Sie eine Bauanleitung für einen Papier-Rotor und alle anderen Planungstools. Versuchen Sie doch einfach selbst, das Rotor-Design mit DoE-Methoden zu optimieren! ❓Schaffen Sie es, ein besseres Optimum als ich zu erreichen❓ In der 5-teiligen Serie zur DoE geht es um die Folge 18: Grundlagen Folge 19: Planung Folge 20: Versuchspläne Folge 21: Auswertung Folge 22: Nutzung der Ergebnisse Links allgemein 👉 Montgomery [2019] "Design and Analysis of Experiments", 10. Auflage, Wiley 👉 Bauplan Rotor 👉 Projektbeschreibung DoE Rotor 👉 Projektdokumentation DoE Rotor 23.09. Versuchsplan mit 20 und 28 Versuchen 👉 Einfluss- und Zielgrößen DoE Rotor 👉 Versuchspläne mit 20 und 28 Versuchen Software für die Auswertung 👉 JMP 👉 Minitab 👉 Design Expert Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Effiziente Werkzeuge für die Planung der DoE DoE 2/5: Planung Wie kann vorhandenes Wissen genutzt werden? Welche Einflüsse sollen untersucht werden? Was sollte vor der Planauswahl passieren? Eine gute Planung ist die beste Basis, um mit möglichst wenig Versuchen möglichst viele Informationen über einen Prozess oder ein Produkt zu bekommen. Die zweite Folge der DoE-Serie beschäftigt sich mit bewährten und effizienten Werkzeugen für die Planungsphase der statistischen Versuchsplanung. Machen Sie Ihre eigene DoE! In den Links unten finden Sie eine Bauanleitung für einen Papier-Rotor und alle anderen Planungstools. Versuchen Sie doch einfach selbst, das Rotor-Design mit DoE-Methoden zu optimieren. ❓Schaffen Sie es, ein besseres Optimum als ich zu erreichen❓ In der 5-teiligen Serie zur DoE geht es um die Folge 18: Grundlagen Folge 19: Planung Folge 20: Versuchspläne Folge 21: Auswertung Folge 22: Nutzung der Ergebnisse Links 👉 Bauplan Rotor 👉 Projektbeschreibung DoE Rotor 👉 Projektdokumentation DoE Rotor 👉 Einfluss- und Zielgrößen DoE Rotor 👉 Ergebnisse Vorversuche Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Statistische Versuchsplanung / Design of Experiments DoE 1/5: Was ist DoE? Was unterscheidet statistische Versuchsplanung und "normale" Versuchsplanung? Was sind Wechselwirkungen und wie wichtig sind sie in Prozessen? Welche Voraussetzungen gibt es bei DoE? Mit möglichst wenig Aufwand möglichst viel über ein Produkt oder ein Prozess herausfinden, das ist das große Ziel. Die statistischen Versuchsplanung und -auswertung bzw. Design of Experiments (kurz DoE) ist genau dafür gemacht! In der 5-teiligen Serie zur DoE geht es um die Folge 18: Grundlagen Folge 19: Planung Folge 20: Versuchspläne Folge 21: Auswertung Folge 22: Nutzung der Ergebnisse Links 👉 Beispiele für DoE 👉 DoE Simplified Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Wie aus Daten Toleranzgrenzen werden Statistische Tolerierung Was ist Toleranzrechnung? Wie werden Toleranzgrenzen über Maßketten ermittelt und warum ist das nur die eine Hälfte der Statistik? Wie funktioniert statistische Tolerierung? Toleranzgrenzen sind Vorgabewerte, die angeben, in welchem Bereich Merkmalswerte liegen sollen. Wenn keine Funktionstoleranzen vorgegeben sind stellt sich in der Praxis die Frage, was "gute" Grenzwerte sind bzw. in welchem Bereich die Werte voraussichtlich liegen werden. Maßketten und die statistische Tolerierung sind Methoden, mit denen Toleranzgrenzen ermittelt werden können. Links 👉 Klein, Bernd (2007): "Prozessorientierte statistische Tolerierung – mathematische Grundlagen, Toleranzverknüpfungen, Prozesskontrolle, Maßkettenrechnung, praktische Anwendung ; mit … 61 Tabellen." Hrsg. von Prof. Dr.-Ing. Ulrich Brill. Haus der Technik, Fachbuch Band 73. Renningen: Expert-Verlag. ISBN 9783816926795. 👉 Bredner, Barbara (2021): " NOT-Statistik . Nachweise führen, Optimierungen finden, Toleranzen berechnen mit Minitab und R", 2. überarbeitete und ergänzte Auflage, ISBN: 978-3-347-00481-8 174 Abbildungen, 25 Tabellen, Schritt für Schritt Anleitungen mit 2 Praxisbeispielen in Minitab und R 👉 Krishnamoorthy, Kalimuthu und Thomas Mathew (2009). Statistical Tolerance Regions : Theory, Applications, and Computation. Wiley. ISBN 9780470380260 Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Warum es so viele verschiedene Buchstaben für Fähigkeitswerte gibt Miniserie Prozessfähigkeit 2/2 Was ist der Unterschied zwischen Cpk und Ppk? Worin unterscheiden sich Maschinenfähigkeit, Kurzzeit- und Langzeit-Prozessfähigkeit? Wenn Prozessfähigkeit so oft Zahlenspielerei ist, warum machen das "alle" und was sind Alternativen? Im zweiten Teil der Miniserie geht es um die Bedeutung hinter den Buchstabenkombinationen wie Cpk und Ppk und den unterschiedlichen Anwendungs-Situationen. Es gibt Gründe für die häufige Verwendung der Prozessfähigkeit, obwohl die Kennzahlen vielfach wertlos sind. Erfahren Sie, wie Sie Prozessqualität zuverlässiger bewerten können und dabei auch noch Ihre Prozesse besser verstehen können! Links 👉 Miniserie Prozessfähigkeit Teil 1 👉 Zitate zu Prozessfähigkeitswerten 👉 DIN ISO 22514-1:2016-08 Statistische Methoden im Prozessmanagement - Fähigkeit und Leistung - Teil 1: Allgemeine Grundsätze und Begriffe (ISO 22514-1:2014) 👉 DIN ISO 22514-2:2019-07 Statistische Verfahren im Prozessmanagement - Fähigkeit und Leistung - Teil 2: Prozessleistungs- und Prozessfähigkeitskenngrößen von zeitabhängigen Prozessmodellen (ISO 22514-2:2017) 👉 zurückgezogen: DIN ISO 21747:2007-03 Statistische Verfahren - Prozessleistungs- und Prozessfähigkeitskenngrößen für kontinuierliche Qualitätsmerkmale (ISO 21747:2006) 👉 AIAG 2005 "Statistical Process Control" (SPC-3) 👉 VDA 2020 "Band 4 Sicherung der Qualität in der Prozesslandschaft, Abschnitt 3 Methoden" Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Wofür Prozessfähigkeit gut ist und warum sie so oft unerreichbar bleibt Miniserie Prozessfähigkeit 1/2 Was ist Prozessfähigkeit? 4 Voraussetzungen für aussagekräftige Prozessfähigkeitswerte Welche Handbücher und Normen sind wichtig und worin unterscheiden sich die Methoden? Ein Prozess ist fähig, wenn er die Toleranz gut einhält. Es klingt so einfach und doch ist es in der Praxis unglaublich kompliziert und oft schwer, die Prozessfähigkeit zuverlässig zu ermitteln. In der Folge geht es um die Grundlagen der Prozessfähigkeitsbewertung und die vier Voraussetzungen, die die korrekte Anwendung so schwer machen. Artikel, Handbücher und Normen 👉 Zitate zu Prozessfähigkeitswerten 👉 DIN ISO 22514-1:2016-08 Statistische Methoden im Prozessmanagement - Fähigkeit und Leistung - Teil 1: Allgemeine Grundsätze und Begriffe (ISO 22514-1:2014) 👉 DIN ISO 22514-2:2019-07 Statistische Verfahren im Prozessmanagement - Fähigkeit und Leistung - Teil 2: Prozessleistungs- und Prozessfähigkeitskenngrößen von zeitabhängigen Prozessmodellen (ISO 22514-2:2017) 👉 zurückgezogen: DIN ISO 21747:2007-03 Statistische Verfahren - Prozessleistungs- und Prozessfähigkeitskenngrößen für kontinuierliche Qualitätsmerkmale (ISO 21747:2006) 👉 AIAG 2005 "Statistical Process Control" (SPC-3) 👉 VDA 2020 "Band 4 Sicherung der Qualität in der Prozesslandschaft, Abschnitt 3 Methoden" Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

Wie Sie die angemessene Anzahl Nachkommastellen festlegen 1,6 Kinder - wie viele Nachkommastellen sind genug? Wie viele Nachkommastellen sind genug? Welche Kriterien gibt es für eine gute Anzahl Nachkommastellen? Was kann ich tun, wenn zu wenig Nachkommastellen vorhanden sind? Bei der Auswertung verlassen wir uns darauf, dass in den Messwerten ausreichend viele Informationen enthalten sind. Hier stellt sich früher oder später immer die Frage, wie viele Nachkommastellen bei Messwerten und in der Auswertung dokumentiert werden sollen. Werden zu wenig Nachkommastellen aufgeschrieben, ist die Analyse unscharf. Gibt es zu viele Nachkommastellen erscheint die Genauigkeit höher, als sie tatsächlich ist. In dieser Podcast-Folge geht es um den goldenen Mittelweg zwischen zu stark gerundeten Zahlen und einer scheinbaren Präzision. Link 👉 Folge 8: Messunsicherheit Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
für die gezielte und gewinnbringende Nutzung Ihrer Daten Die Prognose-Maschine Wann helfen Prognose-Maschinen? Wie funktioniert eine Prognose-Maschine? Wo liegen die Grenzen der Prognose-Maschine? "Prediction is very difficult, especially if it's about the future" (Niels Bohr) In dieser Folge dreht sich alles um Prognosen und darum, wie wir Daten nutzen können, um gute und wertvolle Entscheidungen zu treffen. Bis zu 80% der Datenanalyse-Projekte scheitern, wenn größere Datenmengen mit künstlicher Intelligenz und maschinellem Lernen ausgewertet werden. Die Prognose-Maschine kann bereits am Anfang helfen, realistische Einschätzungen zu benötigten Daten und möglichen Ergebnissen zu liefern. Links 👉 Vorlage Prognose-Maschine 👉 Prediction Machines / Agrawal, Gans & Goldfarb 👉 Die spektakulärsten Fehlprognosen der IT-Geschichte Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Warum Nullhypothesen nicht bewiesen werden können Statistische Tests - Warum Nullhypothesen nicht bewiesen werden können Wie funktioniert ein statistischer Test? Mythen & Märchen bei statistischen Tests Wozu brauchen wir kritische Werte oder p-Werte? Statistische Tests sind die Mittel der Wahl für die Prüfung auf Unterschiede und Verteilungen. In der heutigen Folge geht es darum, wie statistische Tests aufgebaut sind, was sie testen und wo ihre Grenzen liegen. Außerdem wird erklärt, wie die Entscheidung bei einem statistischen Test abläuft und wofür dabei kritische Werte und p-Werte benötigt werden. Links 👉 Neue Zürcher Zeitung: Der P(roblem)-Wert 👉 Laborjournal: Diese 6 Fakten über p-Werte sollte jeder kennen 👉 The American Statistician: The ASA Statement on p-Values: Context, Process and Purpose Ich freue mich auf Ihre Post! Schreiben Sie mir gerne: Barbara Bredner, post@irgendwas-mit-daten.io…
Grafiken für Plausibilitätsprüfung, Analyse und Ursache-Wirkungs-Beziehungen Ist ja alles so schön bunt hier! Wie können wir mit Grafiken Plausibilität prüfen, Zusammenhänge und Wirkstrukturen darstellen oder hochkomplexe Zusammenhänge sichtbar machen? Grafiken geben uns einen Einblick in die Daten. Sie erleichtern die Plausibilitätsbewertung und zeigen, wie Prozess- oder Versuchs-Einstellungen auf das Ergebnis wirken. Es gibt unendlich viele verschiedene Grafiken. In dieser Folge stelle ich die Grafik-Typen vor, die besonders gut geeignet sind. Links 👉 Grafik-Beispiele (mit Daten) 👉 Sternchen im Boxplot sind keine Ausreißer 👉 #30DayChartChallenge 👉 Mehr Thomasse als Bürgermeisterinnen / Katapult Magazin Ich hab da mal eine Frage Ihre Fragen, Ideen und Vorschläge schicken Sie bitte an Barbara Bredner, post@irgendwas-mit-daten.io…
auffällige Werte und Ausreißer Auffällige Werte & Ausreißer Wie kann ich auffällige Werte & Ausreißer finden? Welche Tests auf Ausreißer können helfen? Wann dürfen Werte aus der Analyse ausgeschlossen werden? Auffällige Werte, Extremwerte, Ausreißer - was unterscheidet diese Begriffe und wann darf ich (auch im regulierten Bereich) Messwerte vor der Analyse ausschließen? In dieser Folge geht es um die Werte im Datensatz, die uns direkt ins Auge springen oder die aus anderen Gründen "anders" zu sein scheinen. Ist es eine gute Idee, alle andersartigen Werte einfach auszuschließen? Links 👉 Sternchen im Boxplot sind keine Ausreißer 👉 Ausreißer / Wikipedia 👉 Deep Learning for Anomaly Detection 👉 Anomaly Detection, a Key Task for AI and Machine Learning, Explained Reden wir darüber! Ich freue mich über Ihre Post: Barbara Bredner, post@irgendwas-mit-daten.io…
Wie wird Datenqualität bewertet? Datenqualität: Kriterien & Bewertung Welche Kriterien für Datenqualität gibt es? Wie funktioniert die Bewertung? Eine hohe Datenqualität ist DIE Grundlage für belastbare Analyse-Ergebnisse. Hier gilt das GIGO-Prinzip: Garbage In, Garbage Out. In der heutigen Folge erfahren Sie, welche Kriterien es für die Datenqualität gibt und wie Sie die Qualität Ihrer Daten bewerten können. Links 👉 Bewertung der Datenqualität 👉 Datenqualität messen: mit 11 Kriterien Datenqualität quantifizieren / Marco Geuer 👉 Three Ways to make your Industrial Data Science Project a Success / Prof. Jochen Deuse Schreiben Sie mir! Barbara Bredner, post@irgendwas-mit-daten.io…
Wer misst, misst Mist! Mess-Unsicherheit Wofür ist Messunsicherheit wichtig? Welche Kriterien werden bei der Messunsicherheit geprüft? Warum ist die Messunsicherheit oft viel größer als gedacht? Wer misst, misst Mist! Niemand kann fehlerfrei oder ohne Unsicherheit messen. Messwerte sind aber unsere Entscheidungs-Grundlage. Wenn diese Grundlage unscharf oder verrauscht ist, sind unsere Entscheidungen auch unsicher. In dieser Folge geht es um Bewertungskriterien für die Mess-Unsicherheit nach MSA und VDA 5 und darum, warum das Thema Messunsicherheit fast immer unterschätzt wird. Links 👉 AIAG: Measurement System Analysis (MSA4) 👉 VDA Band 5: Prüfprozesseignung, Eignung von Messsystemen, Mess- und Prüfprozessen, Erweiterte Messunsicherheit, Konformitätsbewertung (VDA 5) 👉 GUM: Guide to the Expression of Uncertainty in Measurement Ich hab da mal eine Frage Ihre Fragen, Ideen und Vorschläge schicken Sie bitte an Barbara Bredner, post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

5 Kriterien für die Software-Auswahl Die beste Software für die Datenanalyse In dieser Folge geht es um DIE beste Software für die Datenanalyse und nach welchen Kriterien eine Software besonders gut geeignet ist. JMP, Minitab, R und KNIME werden miteinander verglichen, damit Sie eine gute Entscheidung treffen können, welche Software für Sie und Ihre Anwendungen die beste ist. 5 Kriterien Allgemein/Kosten Analyse-Möglichkeiten Erweiterungen, Automatisierung und Schnittstellen Support Validierung Links 👉 Vergleich Software für die Datenanalyse JMP Minitab R KNIME 👉 Beispieldaten für Software-Vergleich 👉 JMP und JMP Community 👉 Minitab 👉 R und Rstudio: kostenfreier Editor für R 👉 KNIME Analytics Platform und KNIME Forum Ich hab da mal eine Frage Ihre Fragen, Ideen und Vorschläge schicken Sie bitte an Barbara Bredner, post@irgendwas-mit-daten.io…
Was Signifikanz ist und worin sie sich von technischer Relevanz unterscheidet Das ist doch signifikant! 👉Was ist Signifikanz? 👉 Wo brauche ich Signifikanz? 👉 Wie kann ich Signifikanz in der Datenanalyse erreichen? Signifikanz begegnet uns oft als Wort. In dieser Folge geht es darum, was statistische Signfiikanz ausmacht, wie sie erreicht werden kann und warum Signifikanz wenig mit technischer Relevanz zu tun hat. Auch wenn "Das ist signifikant!" erstmal machtvoll klingt ist es immer gut zu fragen, was sich hinter der Aussage verbirgt. Links 👉 Vergleich Tests auf Normalverteilung in Gross, Jürgen (2004). A Normal Distribution Course. Englisch. Peter Lang. ISBN 9783631529348 Zitate 1:31 "Gefühlte Signifikanz ist 100 % Sicherheit." 9:08 "Nur wenn ich meine ursprüngliche Annahme verwerfe kann ich sagen 'Das ist signifikant.'" 16:47 "Diese Abweichung, die ich da habe, ist die technisch relevant?" Ich hab da mal eine Frage Ihre Fragen, Ideen und Vorschläge schicken Sie bitte an Barbara Bredner, post@irgendwas-mit-daten.io…
Wie Sie Informationen auswählen, strukturieren & präsentieren Präsentation mit 3E: Ergebnisse, Erkenntnisse, Entscheidungen 👉 Welche Informationen für welches Zielpublikum? 👉 Welche Form ist am besten geeignet? 👉 Mit welcher Struktur kann ich eine gute Geschichte erzählen? Im fünften und letzten Teil der Miniserie zur Datenanalyse erhalten Sie Tipps dazu, wie Sie die Informationen auswählen und strukturieren können. Ich verrate Ihnen, mit welchen einfachen Mitteln Sie stimmige Geschichten erzählen können und damit Ihr Zielpublikum bestmöglich mit Informationen versorgen. Links 👉 Der souveräne Auftritt / Celina Schareck u. a. BARAS 👉 Der Rote Faden / Matthias Messmer Zitate 2:54 "oder sind das Menschen die mit Datenanalyse nicht so viel zu tun haben und deswegen eher froh sind, wenn der Teil Datenanalyse, Formeln und wilde Grafiken so kurz wie möglich wird" 9:46 "Pausen sind wichtig, vor allen Dingen wenn Sie etwas Wichtiges sagen wollen." 14:36 "Dann kann ich darüber auch viel besser eine Geschichte erzählen als wenn ich meine Auswertungsdatei aufmache, erschlagen bin von ungefähr 35 verschiedenen Grafiken und mir überlege 'nehm ich jetzt dieses Histogramm noch mit rein?'" Ich hab da mal eine Frage Ihre Fragen, Ideen und Vorschläge schicken Sie bitte an Barbara Bredner, post@irgendwas-mit-daten.io…
Welche Informationen Sie dokumentieren sollten Dokumentation Warum sollte ich überhaupt etwas dokumentieren? Was und wie viel muss ich aufschreiben? Wie kann ich die Daten und Ergebnisse so ablegen, dass ich sie bei Bedarf gut wiederfinde? In Folge 4 der Miniserie erfahren Sie, wie Sie doppelte Arbeit vermeiden können und welche Informationen in die Dokumentation einer Datenauswertung gehören. Ich verrate Ihnen meinen Lieblings-Suchagenten und wie Sie über die Dateinamen eine erste Struktur für die Dokumentation erreichen. Links 👉 Vorlage für die Projektplanung 👉 Vorlage Daten-Tapete 👉 Suchprogramm Agent Ransack / File Locator Lite (nur für Windows) Zitate 3:39 "In den wenigsten Fällen wird es so sein, dass jemand Langeweile hatte und sich gedacht hat 'Och, ich mach das jetzt einfach mal anders. Vielleicht funktioniert es ja trotzdem.'" 5:55 "Ihr habt einfach so lange an den Daten rumgespielt und rumgebastelt bis das rauskam, was ihr haben wolltet." Ich hab da mal eine Frage Ihre Fragen, Ideen und Vorschläge schicken Sie bitte an Barbara Bredner, post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

Wie Sie die Ziele Ihrer Datenanalyse erreichen Auswertungs-Methoden Wie sehen die Daten aus? Warum sehen die Daten so aus? Wie werden die Daten morgen aussehen? In Folge 3 von 5 der Miniserie erfahren Sie, welche Ziele Sie mit der Datenanalyse verfolgen können und welche Auswertungs-Methoden dafür geeignet sind. Unabhängig vom Ziel beginnt jede Datenanalyse mit der Prüfung der Datenqualität bzw. der Plausibilitätsprüfung. Zitate 4:26 "Statistik ist kein Zauberkasten." 6:29 "Huch! Das sieht komisch aus. Das hätte ich so nicht erwartet." 10:163 "Ich bin ein ganz großer Fan von Zeitstempeln." Mehr davon! Ideen und Vorschläge bitte an Barbara Bredner, post@irgendwas-mit-daten.io…
Wie Sie gezielt Ihre Daten zusammenstellen Finden & Sammeln von Daten… Was gehört zur Datensammlung? Was sollte ich besser weglassen? Wie viele Daten sind genug? In der zweiten Folge der Miniserie erfahren Sie, wie Sie Ihre Daten zusammenstellen und wie Sie hierbei Fallstricke vermeiden können. Wichtige Punkte bei der "Daten-Tapete" sind unter anderem Zeitstempel, personenbezogene Daten und technische Einheiten. 👉 Vorlage Daten-Tapete Links Geldbußen für DSGVO-Verstöße DSGVO Bußgeldrechner Zitate 6:24 "8 Zeichen müssen reichen" 17:08 "In der Statistik gibt es keine magischen Zahlen." Mehr davon! Ideen und Vorschläge bitte an Barbara Bredner, post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

Womit Sie am besten in die Datenanalyse starten Der beste Anfang in der Datenanalyse ist… Papier und Stift nehmen eine Statistik-Software öffnen im Internet nach ähnlichen Themen recherchieren Es kommt darauf an. In der Folge gebe ich Ihnen Tipps, wie Ihnen der Einstieg in die Datenanalyse am besten gelingt. Sie erfahren, welche Punkte bei der Planung berücksichtigt werden sollten und warum Datenanalyse so oft etwas mit anderen Menschen zu tun hat. Außerdem geht es um die Frage, ob so viel Planung sinnvoll oder notwendig ist, wenn Sie nur einen Mittelwert oder 1 andere Kennzahl berechnen wollen. 👉 Vorlage für die Projektplanung Zitate 1:05: "Die Frage, welche der drei Möglichkeiten die beste ist, lässt sich total einfach beantworten mit der Antwort, die sowieso an vielen Stellen die richtige ist: Es kommt darauf an." 12:15 "Ich hab total Lust, jetzt einen Mittelwert auszurechnen" Mehr davon! Ideen und Vorschläge bitte an Barbara Bredner, post@irgendwas-mit-daten.io…
Produkte entwickeln, Versuche auswerten, Prozesse optimieren Mehr Klarheit in der Datenanalyse für Ingenieure und Ingenieurinnen und alle anderen, die in der Industrie mit Daten zu tun haben! Fragen *Wie gut ist mein Prozess? *Wie belastbar sind meine Ergebnisse? *Wie kann ich den Prozess oder Versuch optimieren? Antworten *Stichprobenumfang: "Wie viele Messwerte sind genug?" *Mess-Unsicherheit / MSA *Prozessqualität und Prozessfähigkeit *Auswertung vorhandener Versuchs- und Prozessdaten *Statistische Versuchsplanung und -auswertung / Design of Experiments (DoE) Kontakt Fragen, Anmerkungen und Verbesserungsideen gerne an Barbara Bredner, post@irgendwas-mit-daten.io Tipps & Tricks wie Ihre Datenanalyse einfacher wird! czm9livqpmvw2t81youjO15xue167zr1EkoEzz…
Ласкаво просимо до Player FM!
Player FM сканує Інтернет для отримання високоякісних подкастів, щоб ви могли насолоджуватися ними зараз. Це найкращий додаток для подкастів, який працює на Android, iPhone і веб-сторінці. Реєстрація для синхронізації підписок між пристроями.