eBooks

Entwicklungsbegleitende Versuchstechniken

2020
978-3-8169-8493-1
expert verlag 
Bernd Klein

Die heutige Produktentwicklung unterliegt den Zwängen möglichst kurzer Entwicklungszeiten, niedrigerer Kosten und einer hohen Ausführungsqualität. Hierbei verschärfen sich diese Vorgaben laufend. Im Ergebnis erwartet ein Kunde ein Produkt, welches seine Funktionen sicher erfüllt, eine hohe Zuverlässigkeit aufweist und eine lange Lebensdauer erreicht. Diese Ziele lassen sich allein durch konstruktive Maßnahmen gewöhnlich nur schwer erreichen, sondern es bedarf immer öfter einer versuchstechnischen Validierung (DfT). Da Versuche meist zeit- und aufwandsintensiv sind, muss es allgemeines Bestreben sein, die Versuchstechnik zu systematisieren und verstärkt statistisch-methodische Auswerteverfahren (wie Messdatenauswertung, Verteilungsanalyse mit Beschreibungsgrößen, DoE, HALT/HAST / HASS/HASA, Schadensakkumulationshypothesen, Weibull-Analyse etc.) einzusetzen.

Entwicklungsbegleitende Versuchstechniken Prof. em. Dr.-Ing. Bernd Klein Entwicklungsbegleitende Versuchstechniken im Maschinen- und Fahrzeugbau 1. Auflage Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http: / / dnb.dnb.de abrufbar. © 2020 · expert verlag GmbH Dischingerweg 5 · D-72070 Tübingen Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Alle Informationen in diesem Buch wurden mit großer Sorgfalt erstellt. Fehler können dennoch nicht völlig ausgeschlossen werden. Weder Verlag noch Autoren oder Herausgeber übernehmen deshalb eine Gewährleistung für die Korrektheit des Inhaltes und haften nicht für fehlerhafte Angaben und deren Folgen. Internet: www.expertverlag.de eMail: info@verlag.expert Printed in Germany ISBN 978-3-8169-3493-6 (Print) ISBN 978-3-8169-8493-1 (ePDF) 1 Vorwort Die heutige Produktentwicklung unterliegt den Zwängen möglichst kurzer Entwicklungszeiten, niedrigerer Kosten und einer hohen Ausführungsqualität. Hierbei verschärfen sich diese Vorgaben laufend. Im Ergebnis erwartet ein Kunde ein Produkt, welches seine Funktionen sicher erfüllt, eine hohe Zuverlässigkeit aufweist und eine lange Lebensdauer erreicht. Diese Ziele lassen sich allein durch konstruktive Maßnahmen gewöhnlich nur schwer erreichen, sondern es bedarf immer öfter einer versuchstechnischen Validierung (DfT). Da Versuche meist zeit- und aufwandsintensiv sind, muss es allgemeines Bestreben sein, die Versuchstechnik zu systematisieren und verstärkt statistisch-methodische Auswerteverfahren (wie Messdatenauswertung, Verteilungsanalyse mit Beschreibungsgrößen, DoE, HALT / HAST / HASS/ HASA, Schadensakkumulationshypothesen, Weibull-Analyse etc.) einzusetzen. Heute wandelt sich die Produktentwicklung zum „agilen Produkt- und Prozessmanagement“, mit dem Ziel alle Kundenforderungen so gut wie möglich zu erfüllen. Damit einhergehend wird auch die Versuchstechnik neu zum „Agile Testing (bzw. TDD)“ positioniert, hiermit werden im Grundsatz entwicklungsbegleitende Versuche (innerhalb von SCRUM) in engen Zeitfenstern bezeichnet. Die folgenden Ausführungen haben die Intention für Praktiker in der Industrie (d. h. Konstrukteure, Versuchstechniker, QM-Fachleute o. ä.) die notwendigen Grundlagen in der Versuchsplanung, Versuchsführung, Versuchsauswertung und Versuchsdokumentation komprimiert zu vermitteln. Unverzichtbare Hilfsmittel sind hier die Wahrscheinlichkeitsrechnung und die Statistik. Diese versuchen Aussagen für Groß- und Grundgesamtheiten bzw. der Erreichung von Zielwerten zu machen und können sich dabei aber nur auf kleine Stichproben stützen. Hervorgegangen ist das Manuskript aus Weiterbildungskursen an „Technischen Berufsakademien“, die der Verfasser des Öfteren abgehalten hat. Dabei lag der Fokus stets darauf Lösungswege für praktische Fragestellungen aufzuzeigen, weshalb einige Zusammenhänge vereinfacht worden sind. Es war der Wunsch vieler Kursteilnehmer das Manuskript als vollständig ausgearbeitete Arbeitsunterlage verfügbar zu haben. Vorkenntnisse sind für das Verständnis der eingeführten Auswerteverfahren nur in sehr geringem Maße erforderlich. Calden bei Kassel, im Januar 2020 Prof. em. Dr.-Ing. Bernd Klein „Sag Freund, was ist Theorie? “ „Man weiß es zwar, doch funktionieren tut es nie! “ „Und was ist Praxis? “ „Frag nicht dumm. Es funktioniert und keiner weiß warum! “ 2 Inhaltsverzeichnis Teil A: Statistische Methoden zur Messdatenauswertung Einleitung..................................................................................................................................7 1 Notwendigkeit von Versuchen in der Produkt- und Prozessentwicklung ........................ 15 1.1 Stellenwert von Versuchen......................................................................................... 15 1.2 Versuche im Entwicklungsprozess............................................................................. 15 1.3 Zielsetzung von Versuchen ........................................................................................ 16 1.4 Übertragbarkeit von Ergebnissen ............................................................................... 18 1.5 Realisierung von Versuchen....................................................................................... 20 1.6 Grenzlasttests.............................................................................................................. 23 2 Versuchsplanung, -führung und Dokumentation ............................................................ 25 2.1 Planung und Durchführung von Versuchen .............................................................. 25 2.2 Versuchsdokumentation ............................................................................................. 30 2.3 Ergebnisvisualisierung ............................................................................................... 35 2.4 Planung des Versuchsprogramms .............................................................................. 36 3 Verteilungen von Messdaten ........................................................................................... 41 3.1 Die Normalverteilung................................................................................................. 41 3.2 Log-Normalverteilung................................................................................................ 45 3.3 Test auf Gauß’sche Normalverteilung ....................................................................... 46 3.4 Binominalverteilung ................................................................................................... 48 3.5 Poisson-Verteilung .................................................................................................... 51 3.6 Exponentialverteilung ................................................................................................ 52 3.7 Weibull-Verteilung..................................................................................................... 54 3.8 Lageparameter von Messdaten ................................................................................... 56 3.9 Meßgrößenanalyse ..................................................................................................... 59 3.10 Notwendiger Prüfaufwand ....................................................................................... 60 3.11 Notwendige Laborprüfzeit ....................................................................................... 61 4 Theorie der Messfehler..................................................................................................... 65 4.1 Struktur des Messfehlers ............................................................................................ 65 4.2 Konfidenzintervall...................................................................................................... 66 4.3 Gauß’sches Fehlerfortpflanzungsgesetz..................................................................... 68 5 Statistische Tests .............................................................................................................. 75 5.1 Hypothesentests.......................................................................................................... 75 5.2 t-Test........................................................................................................................... 77 5.3 Tests für Varianzen .................................................................................................... 79 5.3.1 Chi-Quadrat-Test............................................................................................. 79 5.3.2 F-Test .............................................................................................................. 81 6 Der Ausreißer-Test ........................................................................................................... 83 7 Multiple Messreihenanalyse............................................................................................. 87 8 Korrelation und lineare Regression .................................................................................. 91 3 8.1 Korrelationsanalyse .................................................................................................... 91 8.2 Lineare Regressionsanalyse ....................................................................................... 95 9 Übersicht über statistische Methoden............................................................................. 101 10 Literatur zu Teil A.......................................................................................................... 103 11 Übungsaufgaben zu Teil A 1. Übung: Stichprobenauswertung und Schluss auf eine Großgesamtheit......................... 106 2. Übung: Bestimmung der Ausfallrate.............................................................................. 107 3. Übung: Exponential-Verteilung ..................................................................................... 108 4. Übung: Weibull-Verteilung............................................................................................ 109 5. Übung: Box-Plot............................................................................................................. 110 6. Übung: Graphische Aufbereitung von Messdaten ......................................................... 112 7. Übung: Test auf Normalverteilung................................................................................. 113 12 Statistik-Tabellen ........................................................................................................... 117 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 13 Lebensdauersimulation von Komponenten, Baugruppen und Systemen ....................... 133 13.1 Problemumfeld ....................................................................................................... 133 13.2 Eingrenzung von Lebensdauer und Zuverlässigkeit .............................................. 133 13.3 Statistische Datenaufbereitung ............................................................................... 136 13.4 Zuverlässigkeitskenngrößen ................................................................................... 139 13.5 Komponenten- und Systemlebensdauer ................................................................. 140 13.6 Zuverlässigkeitssteigerung durch Wartung ............................................................ 143 14 Lebensdauersimulation................................................................................................... 145 14.1 Problembereich....................................................................................................... 145 14.2 Genauigkeit der Berechnung .................................................................................. 146 14.3 Äußere Belastung ................................................................................................... 147 14.4 Ermittlung der äußeren Belastung .......................................................................... 149 14.5 Kollektivbildung..................................................................................................... 149 14.6 Wöhlerlinie ............................................................................................................. 150 14.7 Schadensakkumulation ........................................................................................... 151 14.8 Verbesserte Schadensakkumulation ....................................................................... 153 14.9 Rissausbreitung unter Schwingbeanspruchung ...................................................... 156 14.10 Berücksichtigung eines Beanspruchungskollektivs ............................................. 162 15 Zuverlässigkeitstheorie................................................................................................... 167 15.1 Grundproblematik .................................................................................................. 167 15.2 Systemstrukturen .................................................................................................... 168 15.3 Boole’sche Grundanordnungen .............................................................................. 169 15.4 Systemverhalten ..................................................................................................... 172 15.5 Mathematische Zuverlässigkeitsdefinition............................................................. 174 15.6 Zufallsausfälle ........................................................................................................ 176 15.7 Früh- und Abnutzungsausfälle ............................................................................... 177 15.8 Zeitraffende Erprobung .......................................................................................... 180 15.9 Ausfallverhalten von Elektronikbauteilen.............................................................. 185 16 Versuchsdatenanalyse .................................................................................................... 189 4 16.1 Ausfallcharakteristik .............................................................................................. 189 16.2 Zweiparametrige Weibull-Verteilung .................................................................... 189 16.3 Dreiparametrige Weibull-Verteilung ..................................................................... 193 16.4 Lebensdauernetz..................................................................................................... 193 16.4.1 Darstellung im Lebensdauernetz................................................................. 194 16.4.2 Parameterbestimmung im Lebensdauernetz ............................................... 196 16.5 Auswertung vollständig erfasster Lebensdauern ................................................... 196 16.6 Mischverteilungen.................................................................................................. 206 16.7 Berücksichtigung der ausfallfreien Zeit ................................................................. 206 16.8 Vertrauensbereich einer Weibull-Verteilung ......................................................... 211 16.8.1 Unsicherheitsband ....................................................................................... 211 16.8.2 Vertrauensbereich für Schadensanalyse...................................................... 213 16.8.3 Mindestversuchsumfang nach Weibull ....................................................... 215 16.9 Sudden-Death-Prüfung........................................................................................... 216 17 Testplanung für einen Zuverlässigkeitsnachweis........................................................... 221 17.1 Nutzung der Weibull-Funktion (WBF) .................................................................. 221 17.2 Nutzung der Binominal-Verteilung (BV)............................................................... 222 17.3 Nutzung des Bayes’schen Ansatzes ....................................................................... 224 17.3.1 Bestimmung des Lebensdauerverhältnis..................................................... 224 17.3.2 Annahmen von Bayes ................................................................................. 225 17.4 Das Stichprobenproblem ........................................................................................ 232 18 Literatur zu Teil B .......................................................................................................... 235 19 Anhang ........................................................................................................................... 237 20 Übungsaufgaben zu Teil B 1. Übung: Auswertung einer Wöhlerlinie .......................................................................... 246 2. Übung: Versuchsdaten-Analyse ..................................................................................... 253 3. Übung: Lebensdauer und Zuverlässigkeit ...................................................................... 258 4. Übung: Strukturzuverlässigkeit ...................................................................................... 264 Teil C: Versuchsplanung mit Minimal- Experimenten (DoE) 21 Statistische Versuchsmethodik - DoE ........................................................................... 269 21.1 Optimierte Versuchsführung .................................................................................. 269 21.2 Prinzipielle Vorgehensweise .................................................................................. 269 21.3 Versuchstrategien ................................................................................................... 274 21.4 Auswertetechniken ................................................................................................. 276 21.5 Taguchi-Verfahren ................................................................................................. 278 22 Literatur zu Teil C .......................................................................................................... 283 23 Versuchspläne ................................................................................................................ 285 24 F-Wert-Tabellen ............................................................................................................. 295 25 Übungsaufgaben zu Teil C 1. Übung ............................................................................................................................. 302 2. Übung ............................................................................................................................. 307 Teil A: Statistische Methoden zur Messdatenauswertung 5 Einleitung In vielen naturwissenschaftlichen und technischen Fachdisziplinen führen Ingenieure Experimente durch, um mit Hilfe von beobachteten Messdaten und Analysen vielfältige Informationen über Untersuchungsgegenstände zu erhalten, um deren Reifegrad verbessern zu können. Die Exaktheit, Wirtschaftlichkeit und die Qualität des Experimentierens kann durch eine intelligente Vorgehensweise, die Nutzung von statistischen Methoden und die Vorsehung von Testmöglichkeiten wesentlich gesteigert werden. Hierbei ist es unerheblich, ob Experimente der wissenschaftlichen Erkenntnisfindung, der Produkt- und Prozessentwicklung oder der Qualitätssicherung dienen, da die Methoden völlig universell sind. Das Prinzip des Experimentierens lässt sich bis ins späte Mittelalter (14. Jahrhundert) zurückverfolgen. In Ermangelung gesicherter theoretischer Grundlagen experimentierten Baumeister oft mit Tragmodellen, Wasserbaufachleute mit Strömungsmodellen und Militärtechniker mit Funktionsmodellen. Erst mit der Begründung der klassischen Chemie und Physik gewann die Versuchsplanung an Bedeutung. So benutzte beispielsweise schon Francis Bacon (1561-1626) einfache Versuchspläne, die heute als „one-factor-at-a-time“ charakterisiert werden. Damit ist der Beginn der systematischen Versuchsplanung terminiert. Im 17. und 18. Jahrhundert wurde die mathematische Statistik von B. Pascal, den Brüdern Jakob, Johann, Daniel Bernoulli und P. Laplace formuliert. Weitere entscheidende Impulse hat C. F. Gauß (1777-1855) der Statistik gegeben. Gauß hat für Zufallsereignisse Verteilungsgesetzmäßigkeiten und deren Charakterisierung (Mittelwert, Varianz/ Streuung, Konfidenz) beschrieben. Erst im 19. Jahrhundert hat aber erst der russische Mathematiker A. N. Kolmogoroff (1903-1987) die „schließende Statistik“ auf ein sicheres Fundament gestellt und R. A. Fisher (erstes Fachbuch 1935) zur Verbreitung der Versuchstechnik beigetragen. Heute gehören Versuche zum Standard jeder Produkt- oder Prozessentwicklung (Validierung nach ProdSG), wobei jedoch oft die Möglichkeiten der Datenauswertung nur unzureichend genutzt werden. Hier setzt das Manuskript ein, welches diese Lücken auffüllen soll. Als notwendig gilt es daher, zunächst einige theoretische Grundlagen (s. auch / KOCK 12/ ) zu vermitteln, und zwar Auswertung von Messreihen und Ausreißerprüfung, Arten von Messwertverteilungen, Theorie der Messfehler, statistische Tests, Korrelation und Regression sowie Design of Experiments. Diese statistischen Werkzeuge sollen in vielfältigen Anwendungen gezeigt werden. validieren = Überprüfung der Funktion im Gesamtzusammenhang, verifizieren = Überprüfung der Konformität gegenüber Anforderungen. Ein statistisches Auswerteverfahren kann nicht mehr Informationen aus Versuchsdaten herausholen, als in ihnen tatsächlich enthalten sind. 6 Neuerdings besteht in der Praxis die Tendenz, reale Versuche vermehrt durch Rechnersimulationen zu ersetzen, weil diese schneller und wirtschaftlicher sind. Letztendliches Ziel: Ein Fahrzeug fährt im Rechner und nicht mehr auf der Straße. Um dies aber „problemgerecht“ durchführen zu können, müssen Kenntnisse über das mathematisch-physikalische Modell vorliegen. Das heißt, es ist heute für Techniker und Ingenieure unabdingbar, über ausreichende Grundkenntnisse in der Versuchstechnik (DfT) zu verfügen, um tiefere Einblicke in das komplexe Verhalten von Systemen und deren funktionaler Sicherheit (FuSi) zu erhalten. Bild 01: Struktur der technischen Test- und Versuchsmethodik (Design for Test) Im vorstehenden (Fluss-)Bild 01 ist versucht worden, die möglichen Anwendungsstränge strukturiert darzustellen. Die einzelnen „Felder“ werden im Folgenden schrittweise mit dem Stand des Wissens ausgefüllt, welches eine bestimmte Gliederung des Manuskriptes erforderlich macht. Ergänzend ist nachstehend ein „Normenauszug“ zur Versuchstechnik gegeben, welcher die Bedeutung der Problemstellung unterstreicht und umfassende theoretische Hilfestellung bietet. 8 Teil A: Statistische Methoden zur Messdatenauswertung 7 Nr. Inhalt Ausgabe DIN ISO 3534-1 Statistik-Teil 1: Wahrscheinlichkeit und allgemeine statistische Begriffe 10/ 2009 DIN ISO 3534-2 Statistik-Teil 2: Angewandte Statistik 02/ 2010 DIN ISO 1319-1 Grundlagen der Messtechnik - Teil 1: Grundbegriffe 01/ 1995 DIN ISO 1319-2 Grundlagen der Messtechnik - Teil 2: Begriffe der Messmittel 10/ 2005 DIN ISO 1319-3 Grundlagen der Messtechnik - Teil 3: Auswertung von Messungen einer einzelnen Messung; Messunsicherheit 05/ 1996 ISO/ DIS 12107 Metallische Werkstoffe - Ermüdungsprüfung 05/ 2017 DIN 40041 Zuverlässigkeit: Begriffe 12/ 1990 DIN 40081-11 Leitfaden zur Zuverlässigkeit; Bauelemente der Elektronik; Losweise und periodische Prüfung 11/ 1976 DIN 45804 Kriterien für die Zuverlässigkeit von elektronischen Bauelementen 09/ 1996 DIN EN 31010 Risikomanagement - Verfahren zur Risikobewertung 11/ 2010 DIN 50100 Schwingfestigkeitsversuche - Auswertung und Durchführung 12/ 2006 DIN EN 50126 Bahnanwendungen - Spezifikation und Nachweis der Zuverlässigkeit, Verfügbarkeit, Instandhaltbarkeit, Sicherheit 03/ 2000 DIN 55303-7 Statistische Auswertung von Daten - Teil 7: Zweiparametrige Weibull-Verteilung 03/ 1996 DIN EN 60300 Zuverlässigkeitsmanagement und Anwendung, T. 1-4, 11-16 10/ 2010 DIN EN 61078 Techniken für die Analyse der Zuverlässigkeit - Zuverlässigkeitsblockdiagramm und Boole’sche Verfahren 10/ 2006 DIN EN 61124 Prüfung der Funktionsfähigkeit - Prüfpläne für konstante Ausfallrate und konstante Ausfalldichte 03/ 2010 DIN EN 61163-1 Zuverlässigkeitsbehandlung durch Beanspruchung - Teil 1 06/ 2007 DIN EN 61164 Zuverlässigkeitswachstum - statistische Prüfung- und Schätzverfahren 11/ 2004 DIN EN 61165 Anwendung des Markoff-Verfahren 02/ 2007 DIN EN 61508 Funktionale Sicherheit 10/ 2011 DIN EN 61649 Weibull-Analyse 03/ 2009 DIN EN 62061 Sicherheit von Maschinen- Funktionale Sicherheit 09/ 2013 DIN EN 62506 Verfahren für beschleunigte Produktprüfungen 03/ 2014 DIN EN 61709 Bauelemente der Elektronik, Zuverlässigkeit, Referenzbedingungen für Ausfallrate und Beanspruchungsmodelle 01/ 2015 DIN EN 62211 Induktive Bauelemente - Zuverlässigkeitsmanagement 09/ 2004 DIN ISO 26262- 1 bis 10 Straßenfahrzeuge - Funktionale Sicherheit 12/ 2018 Bild 02: Normensituation zur Testproblematik von Lebensdauer und Zuverlässigkeit VDI 4003 Zuverlässigkeitsmanagement 03/ 2007 VDI 4007 Zuverlässigkeitsziele - Ermittlung, Überprüfung, Festlegung 06/ 2012 VDI 4009-8 Zuverlässigkeitswachstum bei Systemen 05/ 1985 VDI 3822 Schadensanalyse 06/ 2010 Bild 03: Erweitertes Ingenieurwissen zur Zuverlässigkeit Einleitung 9 8 Auch auf der Ebene des gesetzlich geregelten Bereichs (9. ProdSV = neunte Verordnung zum Produktsicherheitsgesetz) hat das Problemfeld der „versuchstechnischen Absicherung der Betriebs- und Angriffssicherheit sowie der Lebensdauer und Zuverlässigkeit“ eine größere Bedeutung erlangt. Insbesondere verlangt die Maschinenrichtlinie 2006/ 42/ EG, dass zur Dokumentation von gefährlichen Maschinen sowie Hebezeugen, Seilen, Ketten etc. validierte Festigkeits- und Zuverlässigkeitsnachweise zu führen sind. Für elektrische, elektromechanische und elektronische Komponenten/ Systeme mit Sicherheitsfunktionen ist nach der DIN EN 61508 die funktionale Sicherheit (im Nutzungsumfeld / BÖRC 11/ ) nachzuweisen. Bild 04: Sicherheits- und Qualitätsregelkreis nach DIN EN 61508, DIN EN 62061 bzw. ISO 26262 Letztlich verlangt dies von Unternehmen ein Risikomanagement zu etablieren (z. B. nach ISO 31000), welches sich auf die versuchstechnische Bewährung von Produkten / MEIE 11/ in Gebrauchssituationen (Bild 04) abzustützen hat, um darauf begründet eine präventive Optimierung durchzuführen. Ziel ist es, möglichst eine höhere Prozessreife im Vorstadium der Realisierung zu erreichen. Hierzu dienen auch sogenannte Reifegradanalysen (CMMI für Soft- und Hardwareentwicklungen bzw. SPICE für die Bewertung der Prozessfähigkeit von Produkten nach / LOEW 10/ und / ROSS 14/ ). Unter diesem Gesichtspunkt erweist sich DfT als erfolgreiche „Ingenieurmethode“ in allen Industriezweigen. Anm.: Die Grundnorm DIN EN 61508 wurde ursprünglich nur für elektrische, elektronische und programmierbare elektronische Systeme geschaffen; eine für Maschinen abgeleitete Norm ist die DIN EN 62061. 10 Teil A: Statistische Methoden zur Messdatenauswertung 9 Ausgewählte Definitionen Im Manuskript werden ohne nähere Erläuterung die folgenden Begrifflichkeiten benutzt. Zuverlässigkeitsproblematik Zuverlässigkeit: Die Fähigkeit einer Einheit, eine geforderte Funktion unter bestimmten Bedingungen über einen bestimmten Zeitraum auszuführen. Industrie: Zuverlässigkeit ist Qualität auf Zeit. Redundanz: Die Existenz von mehr als einer Möglichkeit zur Ausführung einer gegebenen Funktion. Die Möglichkeiten müssen nicht notwendigerweise identisch sein (MIL-STD-721 B = Militärischer Standard). Heiße Redundanz: Redundanz, bei der alle redundanten Einheiten gleichzeitig in Betrieb sind und nicht erst im Bedarfsfall eingeschaltet werden (MIL-STD- 721 B). Kalte Redundanz: Redundanz, bei der die alternativen Wege zur Ausführung einer Funktion so lange außer Betrieb sind, bis sie benötigt werden, und erst eingeschaltet werden, wenn der primäre Weg bei der Ausführung ihrer Funktion ausfällt (MIL-STD-721 B). Ausfallproblematik Ausfall: Ende der Fähigkeit einer Einheit, die geforderte Funktion auszuführen (BS 4778 = British Standard). Beobachtete Ausfallrate: Das Verhältnis aus der Gesamtanzahl der Ausfälle in einer Probe zu der kumulierten Beobachtungszeit für diese Probe bei einer bestimmten Lebensdauer einer Einheit. Die beobachtete Ausfallrate muss verknüpft werden mit speziellen und bestimmten Zeitintervallen (oder Intervallsummen) in der Lebenszeit der Einheit und unter bestimmten Bedingungen. Beobachtete MTBF: Der Mittelwert der Zeitabstände zwischen aufeinander folgenden Ausfällen für einen bestimmten Lebenszeitraum einer Einheit, berechnet als das Verhältnis der kumulierten Beobachtungszeit zu der Anzahl der Ausfälle unter bestimmten Bedingungen. Beobachtete MTTF (für nichtreparierbare Einheiten): Das Verhältnis der kumulierten Zeiten für eine Probe zur Gesamtzahl von Ausfällen in der Probe während eines Zeitraums unter bestimmten Bedingungen für einen bestimmten Lebenszeitraum einer Einheit. Beobachtete B- Lebensdauer: Der beobachtete Zeitraum, innerhalb dessen ein bestimmter Teil (B %) einer Probe von Einheiten ausgefallen ist. Entspricht TTF (Dauer bis zum Ausfall = time to failure). Einleitung 11 10 Wartbarkeitsproblematik Wartbarkeit: Die Fähigkeit einer Einheit, unter bestimmten Benutzungsbedingungen einen Zustand beizubehalten oder wiederzuerlangen, in dem sie die geforderten Funktionen ausführen kann, wenn die Wartung unter bestimmten Bedingungen und die Benutzung vorgeschriebener Verfahren und Hilfsmittel durchgeführt wurden. MTTR: Die gesamte Zeit der korrektiven Wartung, dividiert durch die Gesamtzahl von korrektiven Wartungsmaßnahmen während eines gegebenen Zeitraums (MIL-STD-721 B). Wartung: Präventive Maßnahmen mit dem Ziel, durch systematische Inspektion, Aufdeckung und Verhinderung beginnender Ausfälle, einen bestimmten Zustand einer Einheit beizubehalten (MIL-STD-721 B). Verfügbarkeits- und Qualitätsproblematik Verfügbarkeit: Fähigkeit einer Einheit (unter kombinierten Aspekten seiner Zuverlässigkeit, Wartbarkeit und Wartungsunterstützung), ihre geforderten Funktionen zu einem bestimmten Zeitpunkt oder während eines bestimmten Zeitpunkts auszuführen (BS 4778). Lebensdauer: Wahrscheinliche Zeit (zu einer A P = Ausfallwahrscheinlichkeit) für die Nutzung (Std., km, LW) eines Bauteils/ Systems unter einer konstanten oder veränderlichen Belastung (Kollektiv). technische Schulden: Unterschied zwischen dem augenblicklichen Ist-Zustand eines Bauteils/ Produkts und dem idealen Soll-Zustand. Problemfeld Testprozeduren Stufenprüfung: Beschleunigungsprüfung: Grenzlastprüfung: Test, bei dem die angewendete Belastung nach einem festgelegten Intervall erhöht wird, bis ein Ausfall auftritt. Test, bei denen Einheiten einer erhöhten Belastung zum Erreichen einer verkürzten Lebensdauer ausgesetzt werden. Tests, bei denen Einheiten verschiedenen Belastungseinflüssen ausgesetzt werden, um die wahrscheinlichsten Ausfälle zu ermitteln. Ereigniskompression: Zeitkompression: Erhöhung der Häufigkeit von Belastungswiederholungen, welche erheblich höher sein sollen als im Betrieb. Auslassen von Perioden mit niedrigen Belastungsniveaus mit oder ohne Schädigung zum Zweck der Testbeschleunigung. 12 Teil A: Statistische Methoden zur Messdatenauswertung 11 Systemanalyse DfT TDD Konzeption und Auslegung eines Systems für Test-Beanspruchungen (Design for Test); bzw. alternativ: Konzeption und Aufbau eines Systems hinsichtlich seiner Testfähigkeit sowie seiner prüfgerechten Gestaltung (testability). Test-Driven-Development - testbegleitende Entwicklung, d. h primäre Gestaltung des Designs nach den Testanforderungen. FT Funktionstest, angewandt auf alle Funktionen eines Systems (zielführende Strategien = HALT, HASS, HAST und HASA). LDT Lebensdauertest (t, km, LW) mittels zeitabhängiger Belastung an Komponenten und Systemen bis zum mittleren Ausfall (MTTF). ZVT Zuverlässigkeitstest durch Dauerbeaufschlagung von Komponenten und/ oder Systemen mit einer Relativbewegung und/ oder einer variablen Last (Kraft, Temperatur etc.). Einheit der Ausfallrate Ausfälle in der Zeit FIT Failures in Time (1 FIT = 1 9 h 10 1 ); Ausfälle mit Bezug auf Dauer. FPMH bzw. FMH Fehler pro Millionen Stunden (1 FMH = 1 6 h 10 1 ). Zuverlässigkeitskenngrößen R(t) Überlebenswahrscheinlichkeit, dass Komponenten/ Systeme die Zeit t überleben. Beispiel: 99 % der Komponenten müssen 1.000 h überleben; R(1.000) = 0,99 bzw. P Ü (1.000) = 0,99. F(t)= 1 - R(t) Ausfallwahrscheinlichkeit F(t) oder P A (t) bis zur bestimmten Zeit t. Einleitung 13 12 1 Notwendigkeit von Versuchen in der Produkt- und Prozessentwicklung 1.1 Stellenwert von Versuchen In fast allen Industriezweigen, hat sich der Markt vom Nachfragermarkt zum Anbietermarkt gewandelt. Während früher die Macht beim Anbieter von Gütern und Dienstleistungen lag, liegt die Macht heute beim Kunden. Infolge des globalen Wettbewerbs und der durch neue Kommunikationswege ermöglichten Transparenz können Kunden mittlerweile weltweit einkaufen und ihre Nachfragemacht ausspielen. Für die Unternehmen bedeutet dies im Wettbewerb und unter den Zwängen: permanenter Innovation, hoher Qualität und niedriger Kosten bestehen zu können. Auf der Produktebene macht sich dies durch eine Vielzahl von Neuentwicklungen bemerkbar, die in kürzester Zeit entwickelt werden und möglichst schnell auf den Markt kommen müssen. In einigen Branchen ist es schon Wahrheit geworden, dass ein Produkt erst im Kundengebrauch reift. Mangelnde Funktionsbereitschaft, Unzuverlässigkeit und verkürzte Lebensdauern (sog. technische Schulden) sind daher Begleiterscheinungen, mit denen Kunden konfrontiert sind, dies aber immer weniger akzeptieren. Langfristig wenden sich Kunden von Unternehmen ab, wenn diese Erfahrung wiederkehrend gemacht wird. Hinterher bedeutet dies für die Unternehmen eine lang anhaltende Kraftanstrengung, um enttäuschte Kunden zurückzugewinnen. Vorausschauende Unternehmen haben daher die Strategie „Prävention“ in den Mittelpunkt ihrer Bemühungen gestellt. Ein wesentliches präventives Element ist die versuchstechnische Begleitung (DfT + TDD) in der Produkt- und Prozessentwicklung. Trotz der erweiterten Möglichkeiten zur Rechnersimulation werden aber auch zukünftig Versuche (Begleit- und Bestätigungsversuche) notwendig sein. Deshalb müssen realistische Versuche bzw. Versuchsprogramme in einen Entwicklungsablauf integriert werden, wobei die Forderungen geringer Aufwand, möglichst zeitgerafft, hohe Informationsausbeute, vorsehen von Testmöglichkeiten, bestehen. Meist erfordert die Herstellung der Prüffähigkeit (durch Adapter etc.) erheblichen Aufwand und führt oft zu Zeitverzögerungen. An die Qualifikation des Testpersonals hinsichtlich Versuchs- und Auswertetechniken (z. B. Wahrscheinlichkeit und Statistik) werden somit immer höhere Anforderungen gestellt. 1.2 Versuche im Entwicklungsprozess Mit jeder Produktentwicklung sind technische und wirtschaftliche Absichten verbunden. Einige zu erreichende Eigenschaften lassen sich verlässlich vorhersagen (Berechnung, Parametervariation), wenn eindeutige mathematische Zusammenhänge bestehen. Bei anderen Eigenschaften ist ein direkter mathematischer Zusammenhang nicht bekannt oder es besteht nur eine Vermutung über das Ergebnis, weshalb entwicklungsbegleitende Versuche (Agile Testing, z. B. innerhalb von Entwicklungs-Sprints / BAUM 18/ , / KNAP 16/ ) notwendig sind. 13 Wenn das angestrebte Ziel darin besteht, mit Hilfe von Versuchen das Produkt-/ Prozessverhalten zu verstehen bzw. abzusichern, dann müssen Versuche geplant durchgeführt und statistisch ausgewertet werden. Hierfür existieren bewährte Methoden und Vorgehensweisen, wie die statistische Datenanalyse, die Verteilungsanalyse, die Systemanalyse, die Korrelation und Regression, die statistische Versuchsmethodik (DoE). Jede dieser Methoden ist in bestimmten Phasen eines Versuchs bzw. Versuchsprogramms von Relevanz und gilt es daher zu beherrschen. Gleichfalls stellt die Auflistung eine Hierarchisierung der Methoden hinsichtlich ihrer Aussagefähigkeit dar. Da Versuche langwierig sein können und mit erheblichen Kosten verbunden sind, ist es geboten, das Vorgehen zu systematisieren. Zum Planungskonzept (s. DIN EN 60300) sollten unbedingt gehören: 1. Festlegung des Versuchsziels 2. Erstellung eines empirischen Versuchsmodells 3. Identifikation aller (Einfluss-)Parameter 4. Ermittlung des Versuchsumfangs 5. Festlegung des Versuchsprogramms 6. Realisierung des Versuchsaufbaus 7. Durchführung der Versuche 8. Ergebnisauswertung und Plausibilitätskontrolle 9. Dokumentation 10. Rückführung der Ergebnisse Eine strenge Einhaltung dieser Schritte ist sehr zu empfehlen, weil hiermit die Gewähr verbunden ist, den Versuch auch „ausnutzen“ zu können. 1.3 Zielsetzung von Versuchen In Forschung und Entwicklung dienen Versuche dazu, den Wissensstand zu erweitern und abzusichern. Wie vorher schon ausgeführt, werden keine Versuche notwendig sein, wenn der direkte mathematische Zusammenhang zwischen den Eingangsgrößen und der Wirkungsgröße bekannt ist. Dies ist üblicherweise dann gegeben, wenn eindeutige physikalische Gesetze einen Zusammenhang beschreiben. Ein typisches Beispiel dazu ist im Bild 1.1 skizziert worden. Versuche sollen besondere Zusammenhänge aufdecken, erklärbar und reproduzierbar machen. 16 Teil A: Statistische Methoden zur Messdatenauswertung 14 Wärmestrom: Trocknungs-/ Heizaggregat Q 1 2 1 2 v v . konst m m t 1 A 2 A 1 1 v , m V t N t N V t t c v A t c m Q Bild 1.1: Modell eines Trocknungsbzw. Heizprozesses auf Basis der Konti-Gleichung Der durch den Trockner abgegebene Wärmestrom kann verlässlich vorher bestimmt werden, weil eindeutige geometrische (A = Rohrquerschnitt) und physikalische Stellgrößen (v = Geschwindigkeit des Mediums, t = Temperaturdifferenz) existieren. Trotzdem können Versuche notwendig werden, wenn beispielsweise die Abhängigkeit der spezifischen Wärmekapazität c von der Temperatur oder vom Medium (Wasser, Öl) abgeklärt werden soll. Ein Versuch wird also immer notwendig sein, wenn die Wirkung von Parametern (bzw. Faktoren) auf ein Ergebnis bestätigt werden soll. Dies lässt sich wie im Bild 1.2 dargestellt verallgemeinern auf den Versuch: Bestimmung des Zusammenhangs zwischen der Wärmekapazität und der Temperatur c(t) sowie deren Wirkung auf den Wärmestrom v t, c, Q . c t v , t c f Q 2 1 t , t t 1 t 2 t c Wirkung Einflussgrößen Bild 1.2: Modellversuch zur Ermittlung der Temperaturabhängigkeit der Wärmekapazität Nur das, was sich messen lässt, kann auch statistisch ausgewertet werden. 1 Notwendigkeit von Versuchen in der Produkt- und Prozessentwicklung 17 15 In der E&K-Praxis wird es eine Vielzahl von Situationen geben, bei denen Versuche unabdingbar sein werden, weil keine gesicherten Erkenntnisse über die Auswirkung dieser Parameter auf ein bestimmtes zu erzielendes Ergebnis vorliegen. Insofern verfolgen Versuche regelmäßig vorbestimmte Ziele: 1. Funktionstest an Neu- und Serienprodukten Überprüfung der Funktionsfähigkeit, verschärfte Belastung (Grenzlast), gegebenenfalls unter veränderten Einsatzbedingungen (Temperatur, Feuchtigkeit, Schwingungen). 2. Bewährungstest nach Änderungen Bestätigung konstruktiver Maßnahmen, anderes Material, andere Technologie; Überprüfung auf Wechselwirkungen. 3. Lebensdauer-/ Zuverlässigkeitstests Prüfung unter Einsatzbedingungen, Schwachstellen-Ermittlung, Optimierung der Zyklenzahl; neue Komponenten im System. 4. Feldtests Bewährung unter Einsatzbedingungen, Schwachstellen-Ermittlung, Messung von Lastparametern; Einfluss von Alterung, Korrosion, Dauerbeanspruchung etc. Daraus folgt: Vor einem Versuch liegt in der Regel eine Vermutung (Hypothese) vor, wie wahrscheinlich das Ergebnis eines Versuches sein wird. Ein Versuch kann eine Hypothese entweder bestätigen (verifizieren), d. h., man hat richtig vermutet, widerlegen (falsifizieren), d. h., man hat falsch vermutet, man stellt fest, dass die Hypothese nicht plausibel (validierbar) ist und daher umformuliert werden muss, welches i. d. R. einen anderen Versuch zur Folge hat. Dies ist eine anspruchsvolle Aufgabe, die mittlerweile in DfT als eigenständiges Forschungsgebiet ihren Niederschlag findet und entsprechende Kompetenz voraussetzt. 1.4 Übertragbarkeit von Ergebnissen Bei Versuchen wird immer unterstellt, dass diese aussagefähig und repräsentativ sind bzw. aus wenigen Versuchen auf das Verhalten von vielen Objekten bzw. der Ausprägung von Merkmalen / BUTT 02/ geschlossen werden kann. Dies ist eine anspruchsvolle Aufgabenstellung der deskriptiven Statistik, weshalb zu Anfang eine Einordnung zu erfolgen hat, wozu das folgende Bild 1.3 dienen soll. Es ist nämlich von Relevanz, ob Vorhersagen für eine Großbzw. Grundgesamtheit gelten sollen und wie groß die Stichprobenbasis ist. Versuche müssen auf den Zweck abgestimmt werden und der Realität entsprechen! 18 Teil A: Statistische Methoden zur Messdatenauswertung 16 , : GH groß 0 0 , : GG 1 SP 2 SP 1 x 3 x 2 x n) , s , x ( 1 1 n) , s , x ( 2 2 0 N N 0 N j ) k ( SP SPV : ; x k 1 k 1 i i ) k ( j GH: ; k u ) k ( j % ) k ( j k 1 i 2 i ) k ( j s k 1 2 ; ) k ( j k 1 (Wurzel-k-Gesetz). Bild 1.3: Definition von Losgröße, Stichproben, Großgesamtheit und Grundgesamtheit zur Gewinnung der notwendigen Kenngrößen Das Prinzip der Statistik ist es, von einer Stichprobenverteilung ) k ( SPV auf eine Großgesamtheit (GH) und letztlich auf eine sehr große Grundgesamtheit (GG) schließen zu wollen: Eine einzelne Stichprobe j SP besteht meist aus einer geringen Anzahl von n Objekten. Diese Objekte sollen weitestgehend identisch sein. Da dies nicht gewährleistet werden kann, ergeben sich Abweichungen, die durch den Stichprobenmittelwert i x und eine Streuung i s charakterisiert sind. Eine Großgesamtheit (GH) kennzeichnet eine größere Anzahl von Objekten (N), die einem Tages-, Wochen- oder Monatslos entsprechen sollen. Die Eigenschaft , einer Großgesamtheit kann mit guter Näherung aus einer Anzahl von Stichprobenauswertungen ( j SP = Stichprobenverteilung (SPV)) gewonnen werden. Das heißt, die Zusammenfassung von mehr als vier beliebigen Stichproben (Lindeberg-Bedingung) ist annähernd „normalverteilt“ mit der Charakteristik einer Großgesamtheit (Zentraler Grenzwertsatz der Statistik von Gauß, s. auch / KOCK 12/ ). Oftmals wird aber durch Versuche angestrebt, eine Aussage für eine sehr große Grundgesamtheit (GG) machen zu können. Eine Grundgesamtheit ist insofern eine Jahresproduktion oder eine Mehrjahresproduktion 0 N . Es ist einsichtig, dass hierfür eine Vielzahl von Stichproben bzw. eine große Anzahl von Objekten notwendig wäre, was entweder unmöglich ist oder wirtschaftlich nicht vertretbar sein wird. D. h., eine Großgesamtheit mit überschaubar vielen Objekten 0 N N muss daher stellvertretend für eine Grundgesamtheit stehen. Ein einzelnes Objekt oder eine einzige Stichprobe ist in der Regel nie repräsentativ für eine Groß- oder Grundgesamtheit. 1 Notwendigkeit von Versuchen in der Produkt- und Prozessentwicklung 19 17 Zusammenfassend führt dies zu der Aussage, dass letztlich die „Mittelwert-Verteilung“ repräsentativ für eine Groß- oder Grundgesamtheit ist. 1.5 Realisierung von Versuchen Ein wichtiger Aspekt der Versuchstechnik ist der Aufbau und die Durchführung eines Versuchs. Der Aufbau leitet sich gewöhnlich aus der Versuchsaufgabe (Funktions-, Lebensdauer- oder Bewährungstest) und den Umgebungsbedingungen (Temperatur, Feuchte etc.) ab. Ein weiteres Aufwandsmerkmal ist, ob es sich um ein Komponenten- oder Systemtest handelt. Meist müssen Weg-Zeit- oder Kraft-Zeit-Funktionen über Adapter eingeleitet werden, weil im Stadium der Konstruktion vielfach nicht an den späteren Test gedacht wird. Die Herstellung der Adapter verzögert meist den Test und kann Einfluss auf das Testergebnis (Zusatzmasse, Steifigkeit, Eigenfrequenz) haben. Hierbei muss sicherlich unterschieden werden, ob es sich um mechanische oder elektronische Komponenten/ Systeme handelt, weil hier sehr unterschiedliche Testaufgaben umzusetzen sind. Ein charakterisierendes Kriterium für die Testfähigkeit ist die benötigte Oberfläche für die Einleitungs- oder Angriffsobjekte, um einen Weg oder eine Kraft bzw. eine physikalische Belastungsgröße (Temperatur, Stromstärke, Spannung o. ä.) einzuleiten. In der mechanischen Technik benötigt man etwa 5-10 % der Oberfläche als Adapter- und Prüffläche (bspw. für DMS oder Pulser). Bei elektronischen Systemen sind die Verhältnisse viel ungünstiger. Beispielsweise entwickelt sich die SMD-Technik (Surface Mounted Design) zu einer immer höheren Packungsdichte. So können IC-Schaltungen heute schon auf 9 mm² mit 16 Anschlüssen untergebracht werden. Für Funktions- und Lebensdauertests werden mit derzeitigen Einrichtungen etwa 15 mm² / BERG 12/ benötigt. Selbst das Platzieren von Testpunkten auf der Unterseite einer Leiterplatte würde dazu führen, dass das Gehäuse größer dimensioniert werden muss. Insofern verzichtet man oft in der Praxis auf einen Teil der Prüfungen, welches den schlechten Ruf von Elektronikausfällen begründet. In der mechanischen Technik sind die Testverfahren und die damit zu erzielenden Ergebnisse gemäß Bild 1.4 weitestgehend bekannt. Ziel ist es jeweils, Maßnahmen zu ergreifen und deren Wirksamkeit zu beobachten, um Fehler zu entdecken und deren Folgen zu mindern. Mechanik: Komponententests Zug-/ Druck-/ Biegeversuch Härteprüfungen Kerbschlagversuche Zeitstand-/ Kriechversuche Schwachstellentests (HALT) Dauerversuche (n. Palmgren-Miner) Rissprüfungen Bild 1.4: Standardprüfungen zur Werteermittlung an Mechanikbauteilen 20 Teil A: Statistische Methoden zur Messdatenauswertung 18 Zur Ermittlung der Versuchswerte können Standardprüfmaschinen oder Standardprüfeinrichtungen herangezogen werden. Insgesamt hat man es hierbei mit bewährten Techniken zu tun. In der Elektrotechnik, Elektronik und Mechatronik sind die Verhaltensweisen weitaus komplizierter. Die Hauptursache hierfür ist das hohe Innovationstempo, welches zu einer höheren Integrationsdichte (Gesetz von Gordon Moore: Alle zwei Jahre verdoppeln sich die aktiven Komponenten auf einem Chip) führt, die Inspektionen immer mehr erschweren. Der Trend entwickelt sich daher von der optischen zur elektrischen Inspektion / STOL 07/ . Das Anwendungsspektrum sei dazu im Bild 1.5 überblickartig wiedergegeben. Bild 1.5: Systematik von Testprozeduren für elektrische/ elektronische Komponenten und Systeme nach / BERG 12/ um verdeckte Herstellfehler zu lokalisieren Das Messprinzip ist stets, dass die Baugruppeneingänge mit einem Testsignal beaufschlagt werden und am Ausgang die Reaktion der Bauteile oder Baugruppe erfasst wird. Aus dem Signal können dann Rückschlüsse auf die Funktionsfähigkeit gezogen werden. Die einzelnen Messprinzipien können wie folgt charakterisiert werden: Die „Bemusterung“ ist eine automatisierte Prüfung an Einzelbauteilen vor der Inbetriebnahme der Baugruppe. Auf Einzelprüfplätzen liegt die Testzeit im Minutenbereich. Beim „Burn-In/ Run-In-Test“ handelt es sich um eine Sortierprüfung von mehreren Komponenten/ Baugruppen bei Temperatur-, Spannungs- und Signalschwankungen mit Alterungseffekten. Hierdurch sollen Schwachstellen an Bauelementen entdeckt werden. Meist werden die Tests als Frühausfallversuch durchgeführt. Beim „Screening-Test“ unterscheidet man zwischen einer Stichprobenprüfung und einem Massenscreening (100-Prozent-Test). Eine Baugruppe wird hierbei bestimmten Betriebs- und Umwelteinflüssen ausgesetzt und deren Reaktion beobachtet. Mit einem „mechanischen Testverfahren“ erhält man die Aussage: Gleichartige Bauteile erreichen mit einer gewissen Wahrscheinlichkeit vorgegebene Zielwerte. 1 Notwendigkeit von Versuchen in der Produkt- und Prozessentwicklung 21 19 und Der „EOL-(End-of-Line) bzw. Final-Test“ ist ein Versuchsprogramm am Ende der Produktionslinie. Hierbei wird ein Kurz- oder Selbsttest einer Baugruppe mit dem Ziel durchgeführt, mögliche Schadteile *) zu erkennen und auszutauschen. Die einzelnen Messprinzipien werden technisch als „In-Circuit-Test“, „Flying-Probe-Test“ oder „Boundary-Scan-Test“ / GÖPE 04/ realisiert und seien kurz stichwortartig umrissen. Elektrik/ Elektronik Bauteile-/ Leiterplatten-/ Board-Test In-Circuit-Test Prüfprozedur für elektr. Baugruppen. Bestückte Leiterplatten werden mit einem Prüfadapter verbunden, um Fehler in den Leiterbahnführungen, Lötfehler und Bauteilfehler zu erkennen. Flying-Probe-Test Prüfprozedur, um Boards und Platinen (SMT, THT) hinsichtlich Einsteckfehler, defekte Bauteile, Bestückungsfehler und Lötbadfehler zu testen. Boundary-Scan-Test (Grenzpfadabtastung) Prüfprozedur, die in Schaltungen eingebaute Prüf-ICs (mit Ein- und Ausgängen) nutzt. Die Prüf-ICs können Fehlschaltungen erkennen und ggf. selbstheilend wirken. Bild 1.6: Standardisierte Testprozeduren in der Elektronikentwicklung In der Praxis nehmen viele Unternehmen zertifizierte Labors (z. B. TÜV) in Anspruch, um diese Tests durchführen zu lassen, weil zur Versuchsführung viel Erfahrung gehört. Zukünftig werden externe Prüfzertifikate einen höheren Stellenwert erhalten, da die Elektro- und Elektronikindustrie im Verdacht der „geplanten Obsoleszenz“ steht. Untersuchungen des Umweltbundesamtes (UMB) haben gezeigt, dass in vielen Produkten eine Kurzzeitlebensdauer von 2-3 Jahren hineinkonstruiert worden ist. Daher soll es in naher Zukunft ein EU- Lebensdauerlabel geben, welches nutzbare Mindest-Lebensdauerbereiche ausweist, mit dem letztendlichen Ziel den Elektroschrott zu reduzieren. *) Definitionen: Leiterplatten werden unterschieden in solche, bei denen elektronische Bauteile mit Anschlussdrähten versehen sind, die in vorgebohrte Löcher (THT = Through Hole Technology) eingesteckt werden und solche bei denen die Bauteile nur Anschlusskontakte haben, die auf der Leiterplattenoberfläche (SMT = Surface Mounted Technology) aufgebracht und verlötet werden. Mit einem „elektrischen Testverfahren“ erhält man die Aussage: Eine Baugruppe mit bestimmten Komponenten funktioniert zum Zeitpunkt des Tests und unter gleichen Bedingungen auch in der Praxis! 22 Teil A: Statistische Methoden zur Messdatenauswertung 20 1.6 Grenzlasttests Bei den heutigen Produktentwicklungsstrategien sind die Bemühungen darauf gerichtet, Entwicklungen in ganz kurzen Zeitrahmen zum Erfolg zu führen. Die entwicklungsbegleitende Versuchstechnik erlangt somit einen höheren Stellenwert. Dies wird auch sichtbar bei der Forderung, inkrementelle Ergebnisse von Teams früh zu überprüfen und abzusichern. Letztlich führt dies zur Anwendung von Verfahren des „beschleunigten Testens“ (s. Bild 1.7), die zu sehr wirtschaftlichen Prozeduren führen, wenn sie dezentral angewandt werden. Beschleunigte Produkttests nach DIN EN 62506 HALT: stark beschleunigter Grenzlasttest Highly Accelerated Limit Test = Test oder Abfolge von Tests (Kraft, Frequenz, Leistung, Temperatur, Spannung) mit dem Ziel, die wahrscheinlichste Ausfallart eines Produktes in einem bestimmten Gebrauchsumfeld zu ermitteln. HAST: Test unter stark erhöhter Belastung Highly Accelerated Stress Test = Test, bei welchem die vorgesehene Betriebslast erheblich erhöht wird, um die Dauer des Tests zu verkürzen. HASS: Sortiertest bei stark erhöhter Belastung Highly Accelerated Stress Screening = Sortiertest mit dem Ziel, potenzielle Schwachstellen in einem Produkt zu ermitteln, die durch den Fertigungsprozess verursacht werden. HASA: Prozessüberwachungstest Highly Accelerated Stress Audit = Test zur Prozessüberwachung, wobei einige Proben aus einem Fertigungsprozess getestet werden, um potenzielle, durch die Fertigung verursachte Schwachstellen an einem Produkt zu erkennen. Bild 1.7: Strategien für Grenzlasttests in einer agilen Entwicklungsumgebung Beschleunigte Versuche zielen in der Praxis darauf ab, die Reife einer Entwicklung zu erhöhen und verfolgen zwei Schwerpunkte: - Mittels Tests und deren Auswertung soll verifiziert werden, dass ein Entwicklungsstand keine Ausfallarten beinhaltet, die während der erwarteten Lebensdauer des Produkts und bei den erwarteten Betriebsbedingungen aktiviert werden. Oder - Durch einen Test soll geschätzt werden, wie viele Ausfälle nach einer bestimmten Betriebsdauer und unter den erwarteten Betriebsbedingungen zu erwarten sind. 1 Notwendigkeit von Versuchen in der Produkt- und Prozessentwicklung 23 21 Beide Fälle sind für beschleunigte Versuche geeignet. Die erste Vorgehensweise führt zu einer qualitativen Erkenntnis, nämlich das Erkennen von potenziellen Fehlzuständen, die im Betrieb zu Ausfällen führen können. Die zweite Vorgehensweise ermöglicht die quantitative Einschätzung der Produktzuverlässigkeit in einem bestimmten Umfeld unter einem vorgegebenen Nutzungsprofil. Beschleunigte Versuche können somit auf vielen Ebenen eingesetzt werden, sie unterstützen moderne Entwicklungsstrategien (wie Design for X, SCRUM oder Design Thinking) und haben daher einen entsprechenden Stellenwert. 24 Teil A: Statistische Methoden zur Messdatenauswertung 22 2 Versuchsplanung, -führung und Dokumentation 2.1 Planung und Durchführung von Versuchen Wie zuvor schon ausgeführt, verlangt zielgerichtetes Arbeiten (siehe insbesondere Bild 2.1), dass Versuche mittels der Phasen Planung, Durchführung und Auswertung systematisch abgearbeitet werden. Die dabei festzulegenden oder zu ermittelnden Größen sind im Ablaufschema strukturiert aufgeführt. Durchführung Auswertung Problemanalyse Versuchsziel (LW, km oder t) Anzahl der Faktoren (p) Anzahl der Stufen (q) Anzahl der Objekte (n) Randomisierung/ Blockbildung Wiederholungen (w) technisch/ physikalische Ausführung Ausfall (F(t)) oder Überleben (R(t)) Planung Aussagesicherheit (P ) für R(t) Interaktion/ Wechselwirkung Mittelwertanalyse (ANOM) Varianzanalyse (ANOVA) A Bild 2.1: Systematisches Versuchsplanungskonzept nach DIN EN 61164 Gewöhnlich unterstellt man, dass es unendlich viele Versuchsziele in der Technik und Wissenschaft gibt. Bei näherem Hinsehen wird man aber erkennen, dass sich diese formalisieren lassen. Es gibt nämlich nur fünf verallgemeinerte Aufgabenstellungen, die mit Versuchen geklärt werden können, und zwar 1. Maximierungsprobleme (z. B. Leistungskenngrößen), 2. Minimierungsprobleme (z. B. Schadstoffgrößen), 3. Zielwertprobleme (z. B. Lebensdauer), 4. Streuungsminimierungsprobleme (z. B. Gleichmäßigkeit) 5. Gut-Schlecht-Charakterisierung (z. B. Ausschuss, n. i. O/ i. O.). Für diese Aufgabentypen sind auch mathematische Zielfunktionsformulierungen bekannt. Diese werden oft in DoE-Softwarepaketen als Optimalitätskenngrößen genutzt, weil sie hier eine sehr transparente Anwendung finden. 23 Eine weiter zu klärende Frage ist die nach dem Versuchsumfang bzw. der benötigten Anzahl von Objekten (s. Bayes-Theorie). Diese ergibt sich ohne gewährleistete Aussagesicherheit beispielsweise für klassische DoE-Versuche zu Anzahl der erforderlichen Versuche: r w n p Versuche (2.1) Hierin bezeichnet: w = Experimente oder Wiederholungen (w=1, keine Wiederholung) r = Parameterstufen bzw. Einstellungen p = Anzahl der Faktoren (Parameter) Beispiel: Die vorstehende Dimensionierungsformel soll an einigen DoE-Grundversuchsplänen (s. Anhang) überprüft werden: . 9 32 1 n : 3 Feld , 8 23 1 n : 2 Feld , 4 22 1 n : 2 Feld i 2 i 3 i 2 Beispiel: Einfluss der Anzahl von Prüflingen bei normalverteilten Zugfestigkeitsversuchen an Normproben aus Stahl. Nachweis der Gauß-Verteilung mit 2 Messwerte: Mittelwertfehler 22 % Streuungsfehler 27 % 3 Messwerte: „ 15 % „ 21 % 4 Messwerte: „ 12 % „ 16 % 5 Messwerte: „ 6 % „ 10 % Resümee: Bei der Gauß- und Weibull-Verteilung braucht man mindestens 5 Messwerte für eine hinreichend sichere Aussage (z. B. 95 %) einer Eigenschaft. Um im weiteren Verlauf keine systematischen Effekte zu erhalten, ist es ratsam, bei den Prüfobjekten zu randomisieren, d. h. eine Zufallsauswahl zu treffen. Randomisieren soll also etwas Zufälliges auslösen, was sich einfach durch Würfeln, Losverfahren oder Zufallszahlen erzeugen lässt. Randomisierte Versuche lassen sich dennoch mit Methoden der einfachen Varianzanalyse auswerten. Eine weitere Möglichkeit besteht darin, Blöcke oder Cluster zu bilden. Dies macht man, wenn bewusste Unterschiede (z. B. Frauen/ Männer) innerhalb der Probanden beobachtet werden sollen oder parallel auf mehreren Prüfständen experimentiert werden soll und die Ergebnisse rückverfolgbar (d. h. stratifizierbar) sein sollen. Blockbildung ermöglicht es somit auch, bestimmte Nebeneffekte zu beobachten. Gemäß dem nachfolgenden Bild 2.2 werden durch Blockbildung „r-Schichten oder Klassen“ (z. B. Frauen/ Männer r = 2) möglichst zufällig erzeugt. Aus jeder Schicht kann dann eine Zufallsstichprobe vom Umfang q n gezogen werden. Diese r-Zufallsstichproben bilden somit einen Block. Jedem Objekt wird nunmehr eine der q-Behandlungen zugeordnet und die Versuche (Blockexperiment) werden 26 Teil A: Statistische Methoden zur Messdatenauswertung 24 durchgeführt. Die erzielten Ergebnisse n i y sind darin Zufallsgrößen und geeignet auszuwerten. Bild 2.2: Durchführung eines stratifizierten Experiments an Komponenten oder Systemen Da in die Durchführung von Versuchen regelmäßig viel Zeit und Geld investiert worden ist, sollte man auch alle Möglichkeiten der Statistik nutzen, um die gewonnenen Daten auszuwerten. Eine wichtige Betrachtung ist beispielsweise die Untersuchung von Effekten und Wechselwirkungen. Das Auftreten von Wechselwirkungen macht stets eine sorgfältigere Versuchsauswertung notwendig, als wenn keine Wechselwirkungen vorliegen. Eine Wechselwirkung kann folgendermaßen umschrieben werden: In so genannten Effektdiagrammen können Wechselwirkungen sichtbar gemacht werden. Beispiel: Bei der Hochgeschwindigkeitsbearbeitung von Stahlguss soll der Einfluss von Vorschub (2 mm, 4 mm) und Schnittgeschwindigkeit (20 m/ s, 30 m/ s) auf die Oberflächengüte und den Kühlungsbedarf ermittelt werden. Hierzu wird das folgende Experiment mit einem systematisierten Plan Bild 2.3 durchgeführt: Die Einstellungen von Faktoren haben in ihrem Verhältnis zueinander einen verstärkenden oder abschwächenden Einfluss auf eine Zielgröße. 2 Versuchsplanung, -führung und Dokumentation 27 25 Exp. Nr. 1 x Vorschub (mm) 2 x Schnittgeschw. (m/ s) 2 1 x x (2 F - WW) 1 y Rautiefe ( m) 2 y Kühlung min / cm 3 1 - (2) - (20) + 10 200 2 + (4) - (20) - 15 170 3 - (2) + (30) - 18 250 4 + (4) + (30) + 27 100 Bild 2.3: Vollständiger DoE 2 2 -Versuchsplan *) mit multi-kriteriellen Zielen Die Ergebnisdaten 2 1 y , y wurden beliebig gewählt (d. h. nicht unbedingt logisch), und zwar so, dass zwei unterschiedliche Zweifaktoren-Wechselwirkungen (2 F-WW) auftreten. 10 20 2 , 1 x 1 , 1 x 2 y 1 y 1 , 1 x 2 , 1 x 200 100 18 27 15 250 170 100 (synergetische WW auf Rautiefe) (antisynergetische WW auf die Kühlung) 10 200 Bild 2.4: Grafische Analyse auf Wechselwirkungen, z. B. für Faktor 1 x Stufe j , Parameter i : x für Logik ij Synergetische Wechselwirkungen zeigen eine stabilisierende Tendenz auf eine Zielgröße, während diese bei einer antisynergetischen Wechselwirkung nicht gegeben ist. Während die Effekte die absolute Stärke von Faktoren quantifizieren, zeigt die Mittelwertanalyse die Verbesserungsstufen oder die Optimierungsrichtungen von Faktoren bezüglich eines Ziels auf. Entsprechend ermöglicht die Varianzanalyse den quantitativen Einfluss eines Faktors oder dessen Bedeutung für ein Ziel zu bestimmen. *) Anmerkung: Zum Versuchsplan n 2 Der entwickelte Plan gehört zur Gruppe der klassischen, vollfaktoriellen Versuchspläne. Derartigen Plänen liegt das Bildungsgesetz 1 i 2 (i = Spaltenzähler) zugrunde. Das heißt: i = 1 (erste Spalte) bedeutet 2° = 1 (nach jeder Zeile ist ein Vorzeichenwechsel durchzuführen). Durch schrittweises Erhöhen von i ergibt sich somit die gewünschte Kombinatorik. DoE-Auswertetechniken sind die Effekt-, Mittelwert- und Varianzanalyse. 28 Teil A: Statistische Methoden zur Messdatenauswertung 26 Beispiel: Zu dem vorstehend diskutierten Problem soll eine exemplarische Effektanalyse durchgeführt werden. Bestimmt werden soll jeweils die beste Einstellung für den Vorschub 1 x und die Schnittgeschwindigkeit 2 x auf die Rautiefe 1 y . Mittlere Wirkung von 1 x auf die Rautiefe 1 y : m 21 2 27 15 y m 14 2 18 10 y 2 , 1 x 1 , 1 x Effekt von 1 x (d. h. die Veränderung der Rautiefe beim Wechsel von Stufe 1 nach Stufe 2): m 7 y y E 1 , 1 x 2 , 1 x 1 x Mittlere Wirkung von 2 x auf die Rautiefe 1 y : m 5 , 22 2 27 18 y m 5 , 12 2 15 10 y 2 , 2 x 1 , 2 x Effekt von 2 x : m 10 y y E 1 , 2 x 2 , 2 x 2 x Wenn das Ziel eine möglichst geringe Rautiefe ist, so sind jeweils die unteren Einstellungen von 1 x und 2 x die Richtigen. Der Effekt zwischen den beiden Stufen 1 , 1 x (1 auf Stufe 1) und 2 , 1 x (1 auf Stufe 2) beträgt m 7 E 1 x und entsprechend m 10 E 2 x , d. h., der Effekt bezeichnet die Wirkung auf y infolge des Wechsels zwischen den beiden Stufen eines Parameters. (Bei der Effektbildung sollte immer Stufe 1 von Stufe 2 subtrahiert werden.) Eine weitergehende Varianzanalyse (ANOVA) kann zu dem Beispiel nicht durchgeführt werden, weil die Experimente ohne Wiederholungen durchgeführt worden sind. Bekanntlich benötigt ANOVA die Streuungen bzw. die Varianzen (quadratische Streuung), um relative Faktorgewichtungen durchführen zu können (s. auch / LEHN 00/ ). 2 Versuchsplanung, -führung und Dokumentation 29 27 2.2 Versuchsdokumentation Ein nach dem vorstehenden Programm durchgeführter Versuch muss aus mehreren Gründen dokumentiert werden: - Die ISO 9001 bzw. IATF 16949 verlangt (s. Kap. 7: Planung der Produktrealisierung), dass die Entwicklungsergebnisse „verifiziert und validiert“ werden müssen. - Oftmals wünschen Kunden im Rahmen einer Auftragsvergabe einen Entwicklungsbericht in dem die maßgebenden Leistungsparameter nachgewiesen werden müssen. - Aufsichtsbehörden verlangen eine Risikoeinschätzung auf der Basis von Versuchsergebnissen, was letztlich auch hilft das eigene Produkt-Know-how weiter zu entwickeln. Die systematische Begleitung eines Versuchs erfolgt durch ein Versuchsprotokoll bzw. einen Laborbericht und schließt mit einem Versuchsbericht ab. Hierfür ist Zeit aufzuwenden, die sich vielleicht erst zu einem viel späteren Zeitpunkt als nützlich erweist. Um Labor- und Versuchsberichte zuordnen zu können, sollte ein Dokumentationssystem geschaffen werden, welches über Sachmerkmale eine inhaltliche Transparenz ermöglicht. Eine unzureichende Dokumentation führt in der Praxis meist dazu, dass aufwendige Versuche neu gemacht werden, weil alte Versuchsberichte unvollständig oder nicht auffindbar sind. Beide Berichtsarten haben im Ablauf ihre Berechtigung, da sie das Ziel verfolgen einen Versuch eindeutig, vollständig und sachlich transparent zu erfassen, so dass seine Ergebnisse zu jedem späteren Zeitpunkt reproduzierbar sind. Der Grundsatz ist hierbei: Es sind alle erforderlichen Informationen zu sammeln und anzugeben, so dass ein Nächster unter den angegebenen Bedingungen die gleichen Ergebnisse erzielen kann, wie im ursprünglichen Versuch. Versuchsprotokoll oder Laborbericht: Hat keine besondere Form, soll stichwortartig die Beobachtungen protokollieren; er entsteht vor Ort im Labor; beschreibt den Versuchsaufbau (Prüfstand, Messgeräte) und die Probanden (Anzahl, Beschaffenheit, Anomalien); erfasst die Ereignisse (Messdaten); deutet jedoch nicht und wertet nicht aus. Versuchsbericht: Ist die strukturierte Ausarbeitung des Laborberichtes; er dokumentiert einen Versuch vollständig; entsteht im Büro; ist ergebnisorientiert; Wahl einer sinnvollen Gliederung; Darlegung der Zielsetzung; beschreibt die Art der Prüflinge sowie den Versuchs- und Messaufbau; erfasst und interpretiert die Messergebnisse in Tabellen und Grafiken; nutzt statistische Auswertungen; zieht Schlussfolgerungen. 30 Teil A: Statistische Methoden zur Messdatenauswertung 28 Die zeitliche Relevanz mit ihrer inhaltlichen Ausgestaltung und die Minimalvorgaben zu den Berichtsarten sind im Bild 2.5 noch einmal vergleichend gegenübergestellt. Versuchsprotokoll oder Laborbericht Versuchsbericht Das Protokoll ist die Mitschrift während der Durchführung des Versuchs, weshalb die Versuchsführung und der Versuchsablauf (d. h., alle Beobachtungen in situ = am Ursprung) dokumentiert werden sollen. Das Protokoll muss sämtliche Aufzeichnungen enthalten, welche für die Auswertung eines Versuchs relevant sein können. Die Prüflinge und der Versuchsaufbau sind detailliert zu beschreiben, alle Geräte sind mit ihren Leistungsdaten zu erfassen und alle Messschriebe sind dem Protokoll beizufügen. Es erfolgt jedoch noch keine Auswertung der Ergebnisse. Hierzu gehört natürlich auch, dass die Personen namentlich erfasst werden, die am Versuch mitgewirkt haben. Der Versuchsbericht wird in der Regel aus dem Versuchsprotokoll (ex situ = außerhalb des Ursprungs) erstellt. Das Ziel des Versuchsberichtes ist die vollständige Darstellung des Versuchs und der Ergebnisse und der daraus abzuleitenden Konsequenzen. Es soll die Vorgehensweise und die angewandte Auswertemethode dargelegt werden. Grundsätzlich muss der Versuchsbericht alle relevanten Messdaten enthalten und darauf eingehen. Zusätzlich sind im Anhang alle Messprotokolle anzufügen. Sollten in einem bereits freigegebenen Versuchsbericht noch Fehler enthalten oder Ergänzungen erforderlich sein, muss dies im Titelblatt vermerkt sein: „überarbeitete Fassung“ oder „Revisions-Nr. und Revisions- Datum“. Bild 2.5: Inhaltliche Unterschiede zwischen Versuchsprotokoll bzw. Laborbericht und Versuchsbericht Mit der Problematik der Dokumentation / EDEN 11/ von technisch-wissenschaftlicher Arbeit und der Umsetzung in einem Bericht beschäftigt sich auch das Normenwesen. So sind mit den Normen: - ISO 5966 (zurückgezogen): Dokumentation und Präsentation von wissenschaftlichen und technischen Berichten, - DIN 1421: Gliederung und Benummerung in Texten, Abschnitten, Absätze und Aufzählungen, - DIN 1422, T.1-4: Veröffentlichungen aus Wissenschaft und Technik, Gestaltung von Manuskripten, allgemeine Vorgaben erschienen, die heute vor allem im öffentlichen Bereich (Forschungsgesellschaften, Universitäten, Fachhochschulen, TÜV etc.) angewandt werden sollen. Die Industrie ist demgemäß aber frei, da in sogenannten nicht geregelten Bereichen keine Formanforderungen an Berichte oder Ausarbeitungen gestellt werden. Normalerweise vermittelt 2 Versuchsplanung, -führung und Dokumentation 31 29 aber ein Bericht mit einer logischen Gliederung dem Adressaten eine gewisse Kompetenz, weshalb immer zu einer sachlogischen Gliederung (sowie im Bild 2.6) geraten werden soll. Allgemeine Versuchsdokumentation Titelblatt Inhaltsverzeichnis (Überschrift „Inhalt“) Personenverzeichnis 1. Aufgabenstellung (Ziel, erwartetes Ergebnis) 2. Textteil (Art und Form der Prüflinge, notwendige Anzahl, Umgebungsbedingungen, Prüfmethode, Versuchsplanung, Versuchsführung, Versuchsdaten, Ver- suchsauswertung) 3. Ergebnisdiskussion (sachlich, evtl. kritisch) 4. Ergebnisrückführung (Know-how-Erwerb) 5. Literatur- und Druckschriftenverzeichnis 6. Zusammenfassung Anhang (Versuchsaufbau, Prüflinge, Messprotokolle, Zeichnungen, Fotos etc.) Bild 2.6: Normadäquate Gliederung von technischen Versuchsberichten nach DIN 1421 bzw. DIN 1422 Die vorstehende, sehr allgemeine Gliederung spricht eigentlich für sich und sollte in etwa so übernommen werden. Zur Normung sei angemerkt, dass hier immer nur der Unterpunkt „Inhalt“ und nicht „Inhaltsverzeichnis“ aufgeführt ist. Mit „Inhalt“ ist die sachlogische Gliederung gemeint, während „Inhaltsverzeichnis“ auch eine Benummerungsstruktur einschließt. Um eine demgemäße Struktur in einen Laborbericht (Bild 2.7) hinein zu bekommen, sei empfohlen die vorstehende Gliederung zu übertragen und gegebenenfalls an spezielle Gegebenheiten anzupassen. Hierbei können auch inhaltliche Modifikationen an ein Unternehmen oder ein Produkt erfolgen. Im Aufbau sollte die ablaufbezogene Vorgehensweise sichtbar werden, d. h., ein Laborbericht ist kein Erlebnisbericht über die Erfolge und Misserfolge bei einem Versuch, sondern ein Protokoll der Beobachtungen. In vielen Unternehmen wird für den Laborbericht eine bewusst provisorische Form gewählt, die wenig perfekt (handschriftlich, Handskizzen etc.) und insofern änderungsoffen ist. 32 Teil A: Statistische Methoden zur Messdatenauswertung 30 Bild 2.7: Gliederungsvorschlag für einen Laborbericht Nach dem mit dem Laborbericht ein „Ablauf- und Ergebnisprotokoll“ vorliegt, erfolgt im Nachgang die methodische Ausarbeitung zu einem qualitativ hochwertigen Versuchsbericht (s. Bild 2.8). Dieser unterscheidet sich in der Gliederung und der textlichen Ausgestaltung von einem Laborbericht. Der Grundsatz für Versuchsberichte ist Neutralität, d. h.: Neben der Form ist hiermit auch der sprachliche Ausdruck verbunden. Ziele und Annahmen sollten immer im Präsens (Ziel des Versuches ist ..., soll nachgewiesen werden ...), Beobachtungen und Ergebnisse in der Vergangenheitsform oder dem verkürzten Passiv (.... wurde bei 100 °C und ca. 15 Min. durchgeführt... anhand der Messdaten wurde ...) formuliert werden. Dies hat sich bewährt und wird auch international so praktiziert. Gliederung eines Laborberichtes Titelblatt Inhaltsverzeichnis Personenverzeichnis (beteiligte Personen, Ort und Zeit), 1. Versuchsziel (Problem in wenigen Sätzen zusammenfassen), 2. Versuchsumfang (Gliederung in Arbeitsschritte), 3. Vorbereitung der Durchführung (Anzahl und Ausführung der Prüflinge, Apparate/ Geräte festlegen), 4. Beobachten und Messen (aktiver Vorgang mit ggf. Eingriffen), 5. mögliche Messfehler dokumentieren (aus Messaufbau und Geräten ermitteln), 6. erfassen der Beobachtungen und Daten (Tabellen, Messschriebe), 7. strukturierte Zusammenstellung der Ergebnisse (ggf. in Kategorien einordnen), Anhang (Versuchsaufbau, Geräteliste, Skizzen, Messprotokolle o.ä. anheften). In einem Versuchsbericht muss immer die Trennung zwischen Zielen und Annahmen sowie Beobachtungen, Ergebnissen und Deutungen deutlich werden. 2 Versuchsplanung, -führung und Dokumentation 33 31 Ein Versuchsbericht ist somit ein wesentliches Produktdokument (i. S. der EU-Maschinenrichtlinie) und hat im Rahmen von Rechtsstreitigkeiten eine entlastende Wirkung. Gliederung eines Versuchsberichtes Titelblatt (Problemstellung, Verfasser, Ort und Zeit), Inhaltsverzeichnis (Gliederung der Vorgehensweise), Abstract (wesentliche Ergebnisse auf einer Seite zusammenfassen), 1. Aufgabenstellung (Zielsetzung, bisheriges Wissen und Vermutungen darlegen), 2. Versuchsstrategie (Ansatz und Methode erläutern) 3. Versuchsbeobachtungen (Parameter auswählen und begründen, Versuchsbedingungen erfassen), 4. Versuchsbeschreibung (Aufbau und Geräte, Prüfstand), 5. Ergebnisauswertung (statistische Kenngrößen, Tabellen, Grafiken nutzen), 6. Ergebnisdiskussion (Ergebnisse deuten, Beziehungen herstellen), 7. Schlussfolgerungen (Ergebnisse zusammenfassend bewerten, Plausibilitätskontrolle, Perspektiven für weitere Arbeiten aufzeigen, was sollte zukünftig noch ermittelt werden), Anhang (alle Quellen aufführen, Zeichnung/ Fotos der Prüflinge, Versuchsaufbau mit Geräteliste, alle Messschriebe, evtl. Ausrechnungen). Bild 2.8: Gliederungsvorschlag für einen Versuchsbericht Zunehmend gehen Unternehmen auch dazu über, Versuchsberichte als elektronisches Dokument im Intranet bereitzustellen. Dies löst gleich zwei Probleme: Die Suche nach der Papierversion in einer Ablage entfällt und der Bericht kann einem größeren Interessentenkreis verfügbar gemacht werden. Eine elektronische Speicherung bedarf jedoch auch einer verständlichen, themenbezogenen Ablagesystematik, so dass eine höhere „Wiederauffindeverlässlichkeit“ besteht. 34 Teil A: Statistische Methoden zur Messdatenauswertung 32 2.3 Ergebnisvisualisierung Als Ergebnis von Versuchen erhält man Messdaten, die gewöhnlich in tabellarischer Form erfasst werden. Meist sind Tabellen unstrukturiert und unübersichtlich. Besser ist es Daten grafisch aufzubereiten, weil hierdurch Schwerpunkte und Zusammenhänge sofort sichtbar werden. In der Messtechnik nutzt man demgemäß: Punkt- und Liniendiagramme, Flächendiagramme und Häufigkeitsdiagramme. Entsprechend dem Anwendungsfall sollte eine geeignete Darstellungsform (s. Bild 2.9) gewählt werden. Bild 2.9: Grafische Diagramme zur Messdatenauswertung Die in der Abbildung gezeigten Darstellungsformen sollen kurz charakterisiert werden: Punktdiagramm Es ist üblich das auf der Abszisse die unabhängige Variable x abgetragen wird und auf der Ordinate die abhängige Variable y (angefallene Messwerte). In der einfachsten Auftragung werden die Messwerte als Punkte markiert. Eigentlich kann so nur erkannt werden, ob eine mögliche Korrelation der Werte vorliegt. 2 Versuchsplanung, -führung und Dokumentation 35 33 Liniendiagramm Mit einem Liniendiagramm können Tendenzen und Zusammenhänge (Regression) erkannt werden. Die Verbindung streuender Messwerte durch eine Zickzack-Linie ist physikalisch unsinnig, denn zusätzliche Messwerte werden nicht auf der geraden Verbindungslinie liegen. Insofern ist es korrekter, die Messwerte durch eine ausgleichende Kurve anzunähern. In diesem Fall sollte man aber zusätzlich die Messwerte markieren, da hierdurch eine Information über die Streuung mitgegeben wird. Kreisdiagramm Flächige Diagramme, wie das Kreisdiagramm, werden herangezogen, wenn verschiedene Messkategorien dargestellt werden sollen. Mit der Größe der Segmente können somit hinweise zu besonderen Schwerpunkten gegeben und deren Bedeutung quantifiziert werden. Säulendiagramm Mit einem Säulendiagramm (Häufigkeitsdichte) können gleichzeitig Streuungen und Schwerpunkt sichtbar gemacht werden. Diese Darstellungsform wird gewöhnlich benutzt, wenn eine größere Stichprobe ausgewertet werden und auf die dahinterliegende mathematische Verteilung (Mittelwert) geschlossen werden soll. Für die üblichen Auswertungen werden in der Praxis vermehrt Statistik-Programme (wie Python, SAS, SPSS, STATA, STATISTICA, MINITAB etc.) herangezogen oder mit der Programmiersprache „R“ (ausschließlich für Statistikprobleme) eigene Anwendungen selbst erstellt. 2.4 Planung des Versuchsprogramms Das letztendliche Ziel der Versuchstechnik ist es, dass Kunden nur fehlerfreie und zuverlässige Produkte erreichen. Gemäß dieser Vorgabe ist der ganze Produkt-Entwicklungs-Prozess zu strukturieren und zu planen. Dies ist umso wichtiger, weil durch neue, agile Methoden (wie Scrum, Kanban etc.) der „Time-to-Market-Zeitraum“ deutlich verkürzt werden soll. Die neuen E+K-Methoden arbeiten die Kundenanforderungen (festgehalten im Product- Backlog) bzw. die einzelnen User-Stories (besondere Anforderungen mit Mehrwert für die Kunden) in sogenannten „Sprints“ (Kurzstreckenläufe) ab. Ein Sprint erhält dabei einen festen Zeitrahmen (Timebox), in dem ein Problem gelöst werden soll. Um die Zeiten einhalten zu können, bedarf es einer detaillierten Versuchsrahmen-Planung wie im Bild 2.10 angedeutet. Agile Testing ist ein in den Entwicklungsprozess eingebundenes testen von „inkrementellen“ Lösungen unter der Vorgabe möglichst „schnell“ zu sein. 36 Teil A: Statistische Methoden zur Messdatenauswertung 34 Bild 2.10: Agiles Testmanagement Der Projekt-Testplan führt alle Testaufgaben mit ihren Zielen und den kalkulierten Zeitrahmen zusammen. Um diesen abarbeiten zu können, müssen die Versuche extrem gut geplant werden, um so wirtschaftlich wie möglich zu einem inkrementellen Ergebnis zu kommen. Da die Idee von Scrum auf dem Teamgedanken beruht, bedeutet dies zukünftig auch eine Abkehr vom zentralen Testcenter, sondern alles weist auf eine Dezentralisierung zu universellen Teststationen (bzw. zur Testautomatisation) hin. Dies hat den Vorteil, dass einzelne Entwicklungsprojekte zeitnah begleitet werden können und auch ein direkter Rückfluss erfolgen kann. Gerade Methoden, die auf sehr frühe Funktionsmodelle ausgerichtet sind, unterliegen der Gefahr der Anhäufung von „technischen Schulden“. Mit technischen Schulden bezeichnet man die Diskrepanz zwischen frühen Ist-Zuständen von Entwicklungen und dem letztendlichen Soll-Zustand, den ein Kunde erhält. Sichtbar wird dies als Qualitätsdefizit in der Anwendung eines Produktes. Meist führt die Behebung dieses Zustandes zu erheblichem Mehraufwand. Insofern ist es wichtig, möglichst früh eine Entwurfsüberprüfung (CDR) durchzuführen, damit die spätere Umsetzung keine weiteren Probleme hervorruft. Damit stellt sich die Frage: Wie „Agile Testing“ einzuordnen ist und was zum unmittelbaren Umfang gehört? Im nachfolgenden Bild 2.11 ist ein prinzipieller Ablauf mit den methodischen Werkzeugen zusammengestellt worden. Die Testaufgabe folgt regelmäßig aus einem Scrum-Projekt, wobei Aufgaben in Teilabschnitte zerlegt werden, und dann hierfür erfüllende Teillösungen gesucht werden. Alle Teillösungen bilden dann zusammen die Gesamtlösung. Um die Erfül- 2 Versuchsplanung, -führung und Dokumentation 37 35 lung der Gesamtlösung sicherzustellen, müssen oft Teillösungen in einem Test abgesichert werden. Da dies meist in einem sehr frühen Stadium einer Entwicklung erfolgt, entsteht vielfach das Problem, dass die Testplanung während der Testausführung (explorativer Testansatz) erfolgen muss. Bild 2.11: Testplan und Testwerkzeuge für das Agile Testing Best Practice ist hier gewöhnlich „TDD“, welches im engeren Sinne die Schaffung eines Designs (konstruktive Ausarbeitung) gemäß den zu erfüllenden Tests (Anforderungsprüfungen) beinhaltet. Dies bedeutet auch, dass man kein Design realisiert, welches höhere Forderungen abdeckt, wodurch unnötige Herstellkosten entstehen. Um Kosten zu vermeiden ist man daher immer wieder geneigt Tests zu reduzieren. Wie im nachfolgenden Bild 2.12 herausgestellt, existiert aber eine Kausalität zur Entwicklungsgeschwindigkeit und zu den technischen Schulden. Die Realität zeigt dann oft ein anderes Verhalten. Eine Verringerung von Tests verringert nicht nur den Qualitätsstand, sondern führt meist auch zu einer Verlangsamung der Entwicklungsgeschwindigkeit, weil Probleme zu spät erkannt werden und es dann viel mehr Zeit kostet, diese zu beheben. 38 Teil A: Statistische Methoden zur Messdatenauswertung 36 Bild 2.12: Zusammenhang zwischen Entwicklungsgeschwindigkeit, Qualitätsstandard und technischen Schulden Erfahrenen Entwicklungsteams liefern hingegen Ergebnisse mit guter Qualität schnell und mit geringen technischen Schulden aus, weil das Testen grundlegend im Entwicklungsprozess verankert ist. Diese Teams stützen sich auf gute versuchstechnische Praktiken und führen so Neuentwicklungen regelmäßig zum Erfolg. 2 Versuchsplanung, -führung und Dokumentation 39 37 3 Verteilungen von Messdaten Je nach Problemstellung können die erfassten Daten entweder zufällig oder trendbehaftet anfallen, und somit einem Verteilungsmodell / JOND 00/ zugeordnet werden. Diese Modellierung ermöglicht im Weiteren Analysen, Abschätzungen und Prognosen über das Verhalten eines Modells anzustellen. Verteilungen sind somit das wichtigste Hilfsmittel der „beschreibenden (so genannten deskriptiven) Statistik“. 3.1 Die Normalverteilung Die Normalverteilung (NV) ist ein Verteilungsmodell für „kontinuierliche Zufallsvariablen“. Sie wurde ursprünglich von C. F. Gauß (1777-1855) zur Beschreibung von unabhängigen Messgrößen entwickelt. Die Normalverteilung unterstellt eine symmetrische Verteilung in Form einer Glocke, bei der sich die Werte der Zufallsvariablen in der Mitte der Verteilung konzentrieren und mit großem Abstand von der Mitte immer seltener auftreten. Die NV ist das wichtigste Verteilungsmodell der Statistik und wird verwendet für die Beschreibung empirischen Verhaltens, als Stichprobenverteilung des arithmetischen Mittels oder Näherungslösung für streuende Messdaten / CASP 07/ . Praktisch relevante Mittelwertverteilungen einer Zufallsgröße sind beispielsweise Zugfestigkeits- oder Schwingfestigkeitswerte von Proben. Dies kann verallgemeinert werden auf Lebensdauerwerte von Bauteilen, wenn reines Werkstoffversagen ursächlich ist. Immer dann, wenn ein Mechanismus (z. B. Verschleiß zwischen Teilen) wirkt, ist jedoch die universellere Weibull-Verteilung das geeignetere Verteilungsmodell. Die Häufigkeitsverteilung der Normalverteilung *) kann durch die Funktion 2 2 2 x x e 2 1 ) x ( f , für x und 0 (3.1) beschrieben werden. Diese Funktion heißt Wahrscheinlichkeitsdichte der NV bzw. kurz 2 , N . Ein wichtiges Merkmal der Dichtefunktion ist ihre Symmetrie, d. h., sie weist für und den gleichen Wert der NV auf. An den Stellen und hat die Dichtefunktion je einen Wendepunkt (WP, s. Bild 3.1), d. h., es tritt ein sichtbarer Krümmungswechsel ein, welches charakteristisch für die Gaußsche-NV ist. *) Anmerkung: symmetrische Glockenkurve 2 e a ) x ( f x b x Nur sortierte und normierte Daten lassen sich sinnvoll auswerten. 38 WP x f x 68,27 % (Flächenanteil) Bild 3.1: Flächenanteil unter der Dichtefunktion einer Normalverteilung Die NV zeigt sich in der Anwendung sehr robust und für große Stichprobenumfänge als sehr zuverlässig. Von Vorteil ist auch, dass Beobachtungen, die nur näherungsweise einer normalverteilten Grundgesamtheit entstammen, durch eine geeignete Transformation in eine NV überführt werden können. Die häufigste Transformationsgröße ist x u , (3.2) welche eine gegebene 2 , N -Verteilung transformiert in eine Standardnormalverteilung N(0, 1). Hiernach ist es ausreichend, nur die Standardnormalverteilung (mit 1 , 0 ) zu tabellieren. Die Dichte der SNV ergibt sich dann zu 2 2 u e 2 1 ) u ( . (3.3) Mit der erfolgten Transformation auf u lässt sich wiederum auch die Verteilungsfunktion x ˆ du e 2 1 ) u ( F x 2 2 u x (3.4) bzw. die Dichtefunktion angeben als x 1 ) u ( f x . (3.5) P F x 1 68,27 % 2 95,45 % 3 99,73 % 4 99,9937 % 5 99,99994 % 6 99,99999 % 42 Teil A: Statistische Methoden zur Messdatenauswertung 39 Weiter gilt noch, dass auch die „linear kombinierte Zufallsvariable“ x y (3.6) 2 2 , N -verteilt ist, wenn x nach 2 , N -verteilt ist; dies ist beispw. wichtig bei Längenmaßgrößen oder Toleranzberechnungen. Beispiel: Die Länge x eines Bauteils sei in m (Meter) gemessen. Weiter sei bekannt, dass x zu einer Stichprobe gehört, die N(0,8, 0,0001)-verteilt sei. Wird nun die Länge des Bauteils um 1 cm verlängert, so ergibt sich der funktionale Zusammenhang zu 1 x 100 y und 1 0001 , 0 100 2 2 (Transformation auf cm). Entsprechend findet sich N(81, 1). Wird das Bauteil jetzt maschinell abgelängt, so können Grenzbetrachtungen angestellt und Prozentanteile von Losen mit bestimmten Maßabweichungen (81 1) abgeschätzt werden, z. B. %, 27 , 68 6826 , 0 1 8413 , 0 2 1 ) 1 ( 2 ) 1 ( ) 1 ( 1 81 80 1 81 82 ) 80 ( F ) 82 ( F 82 y 80 P y y (3.7) d. h., im Toleranz-Bereich 1 cm liegen vermutlich 68,27 % aller Teile. Angemerkt sei noch, dass vorstehend von der Beziehung ) x ( 1 ) x ( (3.8) Gebrauch gemacht wurde, weil die NV symmetrisch ist. Bild 3.2: Verteilungsfunktionen (entsprechen Ausfallsummenfunktion) zweier Normalverteilungen mit i i , . Anm.: F(0,841)-F(0,159)=68,27 % 3 Verteilungen von Messdaten 43 40 Nachfolgend soll eine weitere wichtige Eigenschaft der Normalverteilung herausgestellt werden: Sind Werte x i mit 2 i i s , x N und y j mit 2 j j s , y N normalverteilte Zufallsvariablen (z. B. Längenmaße in einer additiven Maßkette), so gilt auch, dass die Summe *) i _ x + j _ y mit 2 2 j 2 i _ j i _ s s , y x N normalverteilt ist (d. h., Mittelwertsatz). Daraus folgt insbesondere, dass das arithmetische Mittel aus k-Zufallsstichproben die sog. Stichproben-Verteilung mit jeweils n-Proben pro Stichprobe anzusetzen ist als 2 j j , N mit i i i ) k ( j x n 1 x , x k 1 bzw. 2 i 2 j s k 1 . Hierauf gründen die beiden Grundsätze der deskriptiven Statistik / HIPP 07/ : I. Der Erwartungswert aller k-Stichprobenmittelwerte j E korreliert letztlich gegen den wahren Mittelwert der Großgesamtheit , : k 1 j j j k 1 E (j = 1, ..., k für unterschiedliche Stichproben). II. Die geschätzte Streuung einer Stichprobenverteilung j ist stets größer als die letzendliche Streuung der Großgesamtheitsverteilung; dies ist die Aussage des Wurzel-k-Gesetzes. Mit der Anzahl k der Stichproben bzw. Prüflingen aus einer GH (oder GG) folgt so: k j , ( j = Stichprobenstreuung, = Streuung der Großgesamtheit GH). Beispiel: Es liegen neun gleiche Bauteile (d. h. eine Stichprobe mit k = 9) aus einer Herstellung vor, die zu einer 1 , 81 N . bzw , N 2 2 - Großgesamtheitsverteilung gehören sollen. Die Wahrscheinlichkeit, dass das arithmetische Mittel x der hergestellten Bauteillängen in dem Bereich [80, 82] liegt, ist dann . 9974 , 0 1 9987 , 0 2 1 ) 3 ( 2 9 1 81 80 9 1 81 82 82 x 80 P (3.9) Die Aussagegenauigkeit lässt sich nur mit einer größeren Stichprobe verbessern. *) Anmerkung: Etwa ab der Addition (richtiger Überlagerung) von 4 Zufallsverteilungen stellt sich als Summe eine NV ein, wobei die einzelnen Messgrößen selbst nicht normalverteilt sein müssen oder deren Verteilung unbekannt sein dürfen; dies ist die Aussage des „zentralen Grenzwertsatzes“ von Gauß. 44 Teil A: Statistische Methoden zur Messdatenauswertung 41 Verallgemeinerung: Während für eine Stichprobenauswertung mit n-Messwerten (x i, ,s i ) innerhalb einer Stichprobe die folgende Standardnormalverteilungsfunktion i i s x x auszuwerten ist, gilt für eine erweiterte Stichprobenverteilung mit k- Stichproben _ x , k k bzw. entsprechend k x k . Wenn, wie im vorliegenden Beispiel die Parameter und 2 einer normalverteilten Grundgesamtheit bekannt sind, so berechnet sich die Wahrscheinlichkeit P, dass ein zufällig entnommenes Element (mit dem Wert i x ) in ein bestimmtes Intervall fällt zu %. 100 9999 , 0 4 x 4 P %, 73 , 99 9973 , 0 3 x 3 P %, 45 , 95 9545 , 0 2 x 2 P %, 27 , 68 6827 , 0 x P i i i i Später interessiert bei den Konfidenzintervallen / KREN 05/ genau die umgekehrte Fragestellung: nämlich den -Bereich (u = SIGMA-Schranke=Zufallsstreubereich) festzulegen, in dem eine bestimmte Anzahl von Realisierungen liegen soll: , 28 , 1 u % 90 90 , 0 28 , 1 x 28 , 1 i , 65 , 1 u % 95 95 , 0 65 , 1 x 65 , 1 i , 96 , 1 u % 5 , 97 975 , 0 96 , 1 x 96 , 1 i , 33 , 2 u % 99 99 , 0 33 , 2 x 33 , 2 i , 58 , 2 u % 5 , 99 995 , 0 58 , 2 x 58 , 2 i . 09 , 3 u % 9 , 99 999 , 0 09 , 3 x 09 , 3 i 3.2 Log-Normalverteilung Bei Datenerhebungen kann es ohne weiteres vorkommen, dass eine Messreihe n 1 x , , x aus unterschiedlichen Gründen nicht normalverteilt ist. Besteht diese Erkenntnis, so kann oft durch Logarithmieren (spezielle Box-Cox-Transformation) erreicht werden, dass die Verteilung der logarithmierten Werte nahezu symmetrisch wird und einer Normalverteilung gut angepasst ist. Beispiele für derartige Verteilungen sind Maßabstimmungen bei Werkzeugverschleiß, Wachstumsuntersuchungen, Konzentrations- und Empfindlichkeitsprobleme. 3 Verteilungen von Messdaten 45 42 Ist nun n x eine 2 , N -verteilte Zufallsvariable, so wird x hierdurch logarithmisch normalverteilt. Die Verteilungsfunktion *) ist dann x n d e 2 1 ) x ( F x 2 n x 2 2 . (3.10) Entsprechend ist die Dichte . sonst , 0 0 x falls , e x 1 2 1 ) x ( f 2 2 2 / x n x (3.11) 1 2 3 4 x f 0,2 0,1 x Der Erwartungswert der lognormalverteilten Zufallsvariable x ist 2 / 2 e ) x ( E (3.12) und die Varianz 1 e e ) x ( Var 2 2 2 . (3.13) 3.3 Test auf Gauß’sche Normalverteilung Die in Versuchen gewonnenen Daten werden unter der Annahme Unabhängigkeit und in zufälligen Prozessen gewöhnlich normalverteilt sein. Es sei daran erinnert, dass die geläufigen Gleichungen für den Mittelwert und die Varianz eine Normalverteilung unterstellen. Wenn diese Annahme nicht sicher ist, sollte ein Test auf Normalverteilung (z. B. im Gaußnormalen Wahrscheinlichkeitspapier) vorgenommen werden. Eine einfache Möglichkeit besteht darin, eine empirische Prüfverteilung mit den Häufigkeiten der Standardnormalverteilung zu vergleichen (s. umseitiges Beispiel nach / PREC 05/ ) oder ein Datenschnelltest (z. B. nach David, s. auch 7. Übung) durchzuführen, um die NV zu bestätigen oder auszuschließen. *) Anmerkung: Daneben existiert auch eine 10 log -Normalverteilung zum sog. Brigg’schen Logarithmus. Bild 3.3: Dichtefunktion einer Lognormalverteilung 5 , 0 , 8 , 1 2 46 Teil A: Statistische Methoden zur Messdatenauswertung 43 Beispiel: Ein Automobilhersteller möchte gerne Erkenntnisse über die Fahrleistung seiner Autos gewinnen. Dazu werden von 100 beliebigen Käufern, die ihr Auto irgendwie privat oder geschäftlich nutzen, die Kilometerleistung pro Monat abgefragt. Hierbei ergibt sich das folgende Bild. Erfahrungsgemäß sollten mindestens 8 Klassen *) für eine Auswertung gebildet werden. Klassenintervall Klassenmitte absolute Klassenhäufigkeit emp. Klassenhäufigkeit h Strichliste n 3.600-4.000 3.800 3 0,03 4.000-4.400 4.200 8 0,08 4.400-4.800 4.600 15 0,15 4.800-5.200 5.000 24 0,24 5.200-5.600 5.400 22 0,22 5.600-6.000 5.800 17 0,17 6.000-6.400 6.200 7 0,07 6.400-6.800 6.600 4 0,04 100 1,00 Gemäß „Gauß’scher -Vermutung“ ergeben sich: m m/ k 70 , 188 . 5 x und x s = 655,40 km/ m. Die ermittelten empirischen Häufigkeiten (bzw. relative Klassenhäufigkeit) müssen nun mit den nach der NV erwarteten Häufigkeiten verglichen werden. Kilometerleistung (km/ m) empirische Häufigkeit erwartete Häufigkeit < 3.600 3.600-4.000 4.000-4.400 4.400-4.800 4.800-5.200 5.200-5.600 5.600-6.000 6.000-6.400 6.400-6.800 > 6.800 0,00 0,03 0,08 0,15 0,24 0,22 0,17 0,07 0,04 0,00 0,0078 0,0273 0,0800 0,1625 0,2304 0,2277 0,1568 0,0753 0,0253 0,0069 1,00 1,0000 Die theoretisch erwarteten Häufigkeiten für ein einzelnes Intervall k I errechnen sich wie folgt: *) Anmerkung: Allgemeine Vereinbarung 200 . 5 800 . 4 800 . 4 400 . 4 Werte auf der Grenze fallen in eine kleinere Klasse 3 Verteilungen von Messdaten 47 44 . 08 , 0 9649 , 0 8849 , 0 ) 8137 , 1 ( 1 ) 2034 , 1 ( 1 ) 8137 , 1 ( ) 2034 , 1 ( 40 , 655 70 , 188 . 5 000 . 4 40 , 655 70 , 188 . 5 400 . 4 ) 000 . 4 ( F ) 400 . 4 ( F 400 . 4 x 000 . 4 P x x (3.14) In der Praxis wird es immer kleinere Abweichungen geben, insofern muss man fallweise entscheiden, ob die Annäherung an die NV ausreichend genau ist. 3.4 Binominalverteilung Die Binominal- oder Bernoulli-Verteilung ist die wohl wichtigste „diskrete (Gleich-) Verteilung“. Man erhält sie als Verteilung der Anzahl von Erfolgen bei einem so genannten Bernoulli’schen Zufallsexperiment. Beliebig oft wiederholbare unabhängige Zufallsexperimente heißen Bernoulli-Zufallsexperimente, wenn bei jeder Ausführung des Experiments genau zwei Ergebnisse (Erfolg und Nichterfolg) möglich sind und die Wahrscheinlichkeiten für diese Ergebnisse bei jedem Versuch die gleichen sind. Die möglichen Ergebnisse sollen als die beiden komplementären Ereignisse A (=Erfolg) und A (=Nichterfolg) aufgefasst werden. Hierzu korrespondieren die entsprechenden Wahrscheinlichkeiten p und q. Es gilt also p ) A ( P und p 1 q ) A ( P (3.15) mit p + q = 1 oder 100 %. Führt man einen Bernoulli-Versuch n-mal durch, so erhält man als Ergebnis eine Folge von n-Ereignissen A oder A , z. B. mal n A A A A A A A A A A . (3.16) Da die n-Versuche voraussetzungsgemäß alle unabhängig voneinander sind, kann man die Wahrscheinlichkeiten der Einzelversuche miteinander multiplizieren. Für die vorstehende Zufallsfolge findet sich so für die Gesamtwahrscheinlichkeit p p q q q p q p p p ) A A A A A A A A A A ( P . (3.17) Beispiel: Das wiederholte Werfen einer Münze ist ein realer Bernoulli-Versuch. Kopf sei das Ereignis A und Zahl das Ereignis A . Da eine Münze gewöhnlich symmetrisch ist, ergibt sich die gleiche Auftretenswahrscheinlichkeit p = q = 0,5. 48 Teil A: Statistische Methoden zur Messdatenauswertung 45 Eine Modellvorstellung für eine „unsymmetrische Münze“ mit zu bestimmenden p- und q-Werten erhält man durch eine Urne mit Ziehen und Zurücklegen von Kugeln. Nimmt man an, die Urne erhält bei jeder Ziehung a weiße und b schwarze Kugeln, so sind die Ziehungswahrscheinlichkeiten b a a p und b a b q . (3.18) Das Bernoulli’sche Zufallsexperiment ist also ein theoretisches Modell für einige in der Praxis vorkommende Zufallsmechanismen (Unabhängigkeit der einzelnen Versuche und Konstanz der Wahrscheinlichkeiten p und q), wie beispielsweise in der Qualitätssicherung. Meist interessiert bei n-maliger Durchführung von Bernoulli-Versuchen die Anzahl von „Erfolgen“. Man fragt also danach, wie oft bei n-Versuchen das Ereignis A (= Erfolg) eingetreten ist, ohne Rücksicht auf die Reihenfolge innerhalb der Serie. Diese Zahl (Häufigkeit des Eintretens von A bei n unabhängigen Versuchen) ist als diskrete Zufallsvariable x anzusehen, die die Werte 0, 1, 2, ..., n annehmen kann. Man bezeichnet x dann als binominalverteilt. Die Wahrscheinlichkeitsfunktion der Zufallsvariablen x soll nunmehr bestimmt werden. Hierzu wird die Wahrscheinlichkeit P(n, k, p) berechnet, in dem die Zufallsvariable den Wert k (k = 0, 1, 2, ...,n) annimmt, also dass k-mal das Ereignis A und (n - k)-mal das Ereignis A auftritt. Eine günstige Folge von Resultaten erhält man, wenn bei den ersten k-Versuchen A eintritt und bei den restlichen (n - k)-Versuchen A . Es soll also das folgende Ergebnis vorliegen: mal ) k n ( mal k A A A A A A . (3.19) Dieses Ereignis hat die Wahrscheinlichkeit k n k q p P . Die Reihenfolge des Eintretens von A bzw. A bleibt hierbei jedoch unberücksichtigt. Infolgedessen kann weiter gefragt werden, wie oft man n-Resultate so anordnen kann, dass k-mal dass Ereignis A und (n - k)-mal das Ereignis A vorkommt. Dies ist eine Fragestellung der Kombinatorik, welches letztlich zu der Binomial-Gleichung k n k q p k n p , k , n P (k = 0, 1, 2, ...,) *) mit 0! = 1 (3.20) führt. *) Anmerkung: ! k n ! k ! n k n , mit der Fakultät n! = n 3 2 1 3 Verteilungen von Messdaten 49 46 Die Wahrscheinlichkeitsfunktion x F der Zufallsvariablen k, die man aufgrund einer n-maligen Durchführung eines Bernoulli-Versuchs mit bestimmter Erfolgswahrscheinlichkeit p oder Nicht-Wahrscheinlichkeit q erhält, lautet somit: . ) q 1 ( q kn ) q , k , n ( P , n , , 2 , 1 , 0 k für ) p 1 ( p kn ) p , k , n ( P ) k ( F k n k A k n k Ü x (3.21) Die spezifizierte Verteilungsfunktion kann auch aus der Dichtefunktion bestimmt werden: 0 k für 0 0 k für ) t ( f ) k ( F k t x x . (3.22) Beispiel: In einem Labor wird die Neuentwicklung eines Gigachips vorangetrieben. Normalerweise ist bei Prototypen mit q = 0,1 10 % Ausfällen zu rechnen. Zur Durchführung des minimalen Versuchsprogramms können jedoch aus Kostengründen nur n = 10 Versuchschips hergestellt werden. Das Ereignis A soll wieder im Überleben eines Chips bestehen, während A das Ereignis für den Ausfall eines Chips darstellt. Die Ausfälle sind unabhängig und zufällig zu jedem Zeitpunkt, daher ist die Anzahl binomialverteilt. Für einen Temperaturwechseltest werden k = 3 Chips herangezogen, die später aber noch für andere Versuchszwecke weiter benutzt werden sollen. Wie groß ist demgemäß die Wahrscheinlichkeit, dass alle 3 Chips den Test nicht überleben? %. 74 , 5 0574 , 0 9 , 0 1 , 0 3 10 ) 1 , 0 , 3 , 10 ( P 7 3 A Damit kann die folgende verallgemeinerte Tabelle entwickelt werden, mit der Aussage: Die Wahrscheinlichkeit, dass alle k-Chips im Test ausfallen, ist P A - oder P A -Prozent. k ) k ( F x = A P (10, k, 0,1) A Ü P 1 ) k ( P 1 0,3874 0,6126 2 0,1937 0,8063 3 0,0574 0,9426 4 0,0112 0,9888 5 0,0015 0,9985 6 0,0001 0,9999 50 Teil A: Statistische Methoden zur Messdatenauswertung 47 Die erste Spalte gibt die Ausfallwahrscheinlichkeit und die zweite Spalte die Überlebenswahrscheinlichkeit an. Beispiel: Ein Unternehmen produziert Abstandserfassungssensoren mit einer Fehlerrate von q = 6 %. Diese Sensoren werden in Kartons mit je 50 Stück an Automobilhersteller geliefert. Wie groß ist die Wahrscheinlichkeit, dass bei einer Eingangsprüfung bis zu 3 Nicht-in-Ordnung-Sensoren in einem Karton gefunden werden? Die gesuchte Wahrscheinlichkeit ergibt sich als der Wert der Verteilungsfunktion x F an der Stelle k = 3. Gemäß Definition ist ) 3 k ( P ) k ( F A x , wenn k die Zufallsvariable ist, die das Auftreten von Ausschuss zählt, und wenn man 4-mal das Bernoulli-Schema (für k = 0, 1, 2, 3) anwendet: %. 7 , 64 647 , 0 231 , 0 226 , 0 145 , 0 045 , 0 94 , 0 06 , 0 3 50 94 , 0 06 , 0 2 50 94 , 0 06 , 0 1 50 94 , 0 06 , 0 0 50 94 , 0 06 , 0 k 50 ) 3 ( F ) 3 k ( P 47 3 48 2 49 1 50 0 3 0 k k 50 k x A Die Formeln für den Erwartungswert und die Varianz der Bernoulli-Verteilung seien hier noch ohne Herleitung angegeben: p n ) x ( E (3.23) und q p n ) x ( Var . (3.24) 3.5 Poisson-Verteilung Bei vielen Anwendungen von Bernoulli-Experimenten hat man es mit Zufallsexperimenten zu tun, bei denen die Anzahl n der möglichen Prüflinge sehr groß ist, die Erfolgswahrscheinlichkeit p aber sehr klein ist. Das Erfolgsereignis ist dann ein so genanntes seltenes Ereignis. In diesem Fall greift man in der Praxis regelmäßig auf eine Approximation zurück, die von S.D. Poisson stammt und eine Abschätzung der Erfolgswahrscheinlichkeit ermöglicht: ) , k ( P e ! k q p k n n lim ) p , k , n ( P Ü k k n k Ü . (3.25) 3 Verteilungen von Messdaten 51 48 Diese Approximationsformel kann somit auch mit guter Genauigkeit für die Binominalverteilung angewandt werden, wenn etwa die folgenden Voraussetzungen vorliegen: 10 p n und p 500 . 1 n . Die Poisson-Approximation ist selbst wieder eine diskrete Wahrscheinlichkeitsverteilung mit der Dichte sonst 0 , 2 , 1 , 0 k für e ! k ) , k ( P ) k ( f k A x , (3.26) ihre Verteilungsfunktion ist 0 k für 0 0 k für ! t e ) k ( F k t t x . (3.27) Der Mittelbzw. Erwartungswert ist ) k ( E mit p n , (3.28) und die Varianz ist ebenfalls ) k ( Var . (3.29) 3.6 Exponentialverteilung Bei den bisherigen Betrachtungen lag der Schwerpunkt entweder auf der Verteilungsanalyse von Daten oder wahrscheinlichen Ereignissen. Bei der Exponentialverteilung interessiert gewöhnlich die Verteilung der Zeit bis zum ersten oder bis zum nächsten Ausfall eines Bauteils. Diese Zeit t zeigt sich gut als „exponentialverteilt“ bei Frühausfällen von Elektronikbauteilen, somit kann die Exponentialverteilung bei der Abschätzung von Lebensdauern (im Früh- und teilweise bis in den Zufallsausfallbereich) genutzt werden. Die Dichte der Exponentialverteilung kann von der Poisson-Verteilung abgeleitet werden. Sei der Erwartungswert der Ausfälle pro Zeiteinheit (d. h. die Ausfallrate), dann können in einem beliebigen Zeitintervall [0, t] insgesamt t -Ausfälle erwartet werden. Die Wahrscheinlichkeit, dass in dem Zeitintervall überhaupt kein Ausfall (k=0) auftritt, kann nach der Poisson-Wahrscheinlichkeitsfunktion mit dem Parameter t bestimmt werden zu t t 1 0 Ü e e ! 0 t ) 0 k ( P . (3.30) 52 Teil A: Statistische Methoden zur Messdatenauswertung 49 Die Vorgabe, dass in einem bestimmten Intervall [0, T] überhaupt kein Ausfall vorkommt, ist aber identisch mit dem Ereignis, dass die Zeit bis zum ersten Ausfall mindestens T ist. Die Überlebenswahrscheinlichkeit hierfür ist T Ü e ) 0 k ( P ) t T ( P (= Definition der Zuverlässigkeit). (3.31) Daraus kann die Verteilungsfunktion F ( A P = Ausfallwahrscheinlichkeit) der exponentialverteilten Zufallsvariablen t bestimmt werden zu 0 t für 0 0 , T t 0 für e 1 ) T t ( P ) t ( F t A . (3.32) Die erste Ableitung von F(t) nach der Zeit t liefert die Dichtefunktion 0 t für 0 0 , 0 t für e ) t ( f t . (3.33) 1,0 0,8 0,6 0,4 0,2 0 1 2 3 4 5 6 0 t 1,0 0,8 0,6 0,4 0,2 0 1 2 3 4 5 6 0 t t F P A f(t) Bild 3.4: Dichte- und Verteilungsfunktion der Exponentialverteilung mit 1 Der Erwartungswert der Exponentialverteilung ist MTBF 1 ) t ( E (mean time to failure) (3.34) und die Varianz ist 2 1 ) t ( Var . (3.35) Anmerkung: 1 ! 0 , 1 x , x x 0 1 3 Verteilungen von Messdaten 53 50 Da = konstant ist, bedeutet dies, dass Ausfälle in allen Zeiträumen stets mit der gleichen Wahrscheinlichkeit auftreten. Die Exponentialverteilung wird gewöhnlich zur Bestimmung von Lebensdauern von Objekten herangezogen, deren Ausfallwahrscheinlichkeit nicht von der bereits „gelebten Zeit“ abhängt. Gewöhnlich kann dies bei Elektronikprodukten unterstellt werden, wenn nur Ströme fließen, die keinen Verschleiß hervorrufen. Da die Gl. (3.32) eine mathematische Ähnlichkeit zur nachfolgenden Gl. (3.36) aufweist, kann die Exponentialfunktion auch im Weibull-Papier ausgewertet werden. 3.7 Weibull-Verteilung Die Weibull-Verteilung (s. DIN EN 61649) wurde erstmals zur Beschreibung von Materialermüdungserscheinungen von Waloddi Weibull (ca. 1939) verwendet. Heute wird diese Verteilung fast ausschließlich zur Erfassung von Versagensabläufen aus mehreren sich anschließenden Phasen (Frühausfall, Zufallsausfall, Verschleiß, Ermüdungs-/ Alterungsausfall) genutzt. Naturgemäß trifft dies auf mechanische Systeme oder komplexe Baugruppen (Kupplungen, Kugellager, Schraubverbindungen etc.) zu. Die Verteilungsfunktion *) einer Weibull-verteilten Zufallsvariablen t (meist Zeit) lautet allgemein: b T t x A e 1 ) t ( F P für t > 0 und 5 b 25 , 0 (bis max. 8). (3.36) Die Dichte ist b T t b 1 b x x e T t b dt dF f . (3.37) x f 1,0 0,5 0,5 1,0 1,5 2,0 0 t 3 b 5 , 0 b 5 b , etwa ab 3,4 Gauß-NV Bild 3.5: Dichtefunktionen von Weibull-Verteilungen *) Anmerkung: In der Lebensdauerrechnung werden 2- und 3-parametrige Weibull-Funktionen genutzt. Mit b ist der ganze Lebensdauerbereich einschließlich Bruch abbildbar. T = charakteristische Lebensdauer (bei 63,2 %), b = Formparameter bzw. Ausfallsteilheit, e = 2,718 54 Teil A: Statistische Methoden zur Messdatenauswertung 51 Wenn die Verteilungsfunktion das Ausfallverhalten (Failure) beschreibt, so gibt bekanntlich das Komplementär die Überlebenswahrscheinlichkeit (Reliability) an: b T t x Ü e ) t ( F 1 ) t ( R P . (3.38) Weiter lässt sich noch die bedingte Überlebenswahrscheinlichkeit eines Objektes zu einem Zukunftszeitpunkt ) t t ( definieren, welches zum Zeitpunkt t noch sicher lebt: b b b T t T t t b T t T t t Ü e e e t R t t R t ; t t P . (3.39) Der Erwartungswert *) und die Varianz der Weibull-Verteilung sind weiterhin 1 b 1 T ) t ( E mit = tabellierte Gammafunktion von Gauß, (3.40) 2 1 2 1 b 1 1 b 2 T ) t ( Var . (3.41) Die Ausfallrate ) t ( ergibt sich zu 1 b T t T b ) t ( . (3.42) Für 1 b wächst die Ausfallrate monoton ansteigend, für 1 b ist sie konstant (die Verteilung ist dann eine Exponentialverteilung) und für 1 b ist die Ausfallrate monoton fallend. 2,5 2,0 1,5 1,0 0,5 0 0,5 1,0 1,5 2,0 t 3 b 1 b 5 , 0 b ) t ( Bild 3.6: Typische Ausfallraten von Weibull- Verteilungen mit b < 1, Frühausfall b = 1, Zufallsausfall b > 1, Verschleißausfall b 5, Brüche über der Zeit. *) Anmerkung: Der Erwartungswert für die charakt. Zeit ist 1 1/ b T E(t) , d. h. % 2 , 63 P A bzw. % 8 , 36 P Ü . 3 Verteilungen von Messdaten 55 52 3.8 Lageparameter von Messdaten Die Eigenschaft von Messdaten kann durch Lageparameter bzw. alternative Kenngrößen charakterisiert werden. Der geläufige „arithmetische Mittelwert“ setzt additive Verhältnisse und unabhängige, quantitative Messwerte / SACH 18/ voraus, idealerweise normalverteilt: i x n 1 x , (i = 1, ..., n). Beispiel: Bestimmung des arithmetischen Mittelwerts für die Urwert-Messreihe . 5 5 25 x 7 , 6 , 5 , 4 , 3 x i Ist in der Messreihe ein Ausreißer enthalten, dann wird das Ergebnis verzerrt: . 2 , 6 5 31 x 13 , 6 , 5 , 4 , 3 x i Eine alternative Aussage zum empfindlichen Mittelwert ist der Median (x med ). Beispiel: Gegeben seien die Messreihen i x 3, 4, , 6, 7, d. h. der Median ist 5 x med 5, 6 3, 4, , 7, 8, i x d. h. der Median ist 5 , 5 x med i x 3, 4, , 6, 13, d. h. der Median ist 5 x med . ungerade n für , x x 2 / ) 1 n ( med Def.: gerade n für , x x 2 1 x ) 1 2 / n ( ) 2 / n ( med Manchmal ist es zweckmäßiger, das gewogene „arithmetische Mittel“ heranzuziehen k 1 i i i gew x h n 1 x , (k = Messwertgruppen, h i = Klassenhäufigkeit) . Der „Mittelwert“ wird durch Ausreißer stark beeinflusst! Der „Median“ (Zentralwert) ist hingegen robust gegen Ausreißer. 56 Teil A: Statistische Methoden zur Messdatenauswertung 53 Beispiel: In einer Messreihe (mit dem Modus bzw. Modalwert x modal = 4, häufigster Wert) kommen Messwerte mehrfach vor. i x 1, 1; 2, 2; 3; 4, 4, 4; 5, 9 , 2 9 26 5 4 3 3 2 2 1 2 9 1 x gew . Eine weitere Kenngröße zur Beurteilung wie gleichförmig oder ungleichförmig eine Stichprobe von Messwerten zusammengesetzt ist, ist der „Variationskoeffizient“: % 100 x s : V x (prozentuale Streuung um den Mittelwert). Dieser kann auch die Frage beantworten, ob hinter den Daten eine Verteilung liegt. Hierfür müssen die folgenden Charakteristiken geprüft werden: die Daten der Messreihe unterliegen keinem Zufallsgesetz, V > 10-49 %, die Daten der Messreihe sind homogen, zeigen eine durchschnittliche Streuung und unterliegen wahrscheinlich einem Zufallsgesetz, V 50 %, sehr inhomogene Daten mit großer Streuung, eine statistische Auswertung ist nur eingeschränkt zu empfehlen. i i x x x i 2 i ) x x ( 1 4 -2 4 2 5 -1 1 3 6 0 0 4 7 +1 1 5 8 +2 4 30 10 6 5 30 x , 58 , 1 10 4 1 s x % 3 , 26 6 58 , 1 V i i x x x i 2 i ) x x ( 1 2 -4 16 2 4 -2 4 3 6 0 0 4 8 +2 4 5 10 +4 16 30 40 Beispiel: 1. Messreihe mit homogenen Zufallsdaten Beispiel: 2. Messreihe mit inhomogenen Zufallsdaten 3 Verteilungen von Messdaten 57 54 6 x , 16 , 3 40 4 1 s x % 52 6 16 , 3 V Die „Varianz“ ist ein Maß für die Abweichung der Einzelwerte von ihrem Mittelwert. Bei der Varianzbestimmung ist jedoch zu unterscheiden, ob man diese aus einer Groß- oder Grundgesamtheit (GH bzw. GG) mit sehr vielen Messwerten 2 N 1 i 0 i 2 0 x N 1 mit (i = 1, ..., N) oder einer Stichprobe (SP) mit wenigen Messwerten bestimmt: n 1 i 2 i 2 x x x 1 n 1 s mit (i = 1, ..., n). Immer wenn die x i -Werte multiplikativ beeinflusst sind (z. B. Ausfallraten- oder Wachstumsprobleme, geometrische Progression) sollte ein „geometrischer Mittelwert“ gewählt werden: n n 1 i i G x x (d. h., Multiplikation aller x i -Werte) Beispiel: Bestimmung eines sinnvollen Mittelwertes für einen Pkw-Hybridantrieb 400 300 200 100 0 5 10 15 20 25 0 ) Nm ( M t Nm 203 M m t ) (min 10 n 1 2 n n 1 i i G x x i n i t M 500 100 1.000 150 1.500 200 2.000 290 2.500 400 die zugehörigen Messdaten zeigen einen nichtlinearen Verlauf, geometrischer Mittelwert Nm 203 400 290 200 150 100 x 5 G , arithmetischer Mittelwert Nm 228 x arithm .(im vorliegenden Fall nicht zutreffend) 58 Teil A: Statistische Methoden zur Messdatenauswertung 55 Falls Messdaten in einem Experiment regelmäßig Ausreißer zeigen, ist es ratsam grundsätzlich mit dem „gestutzten Mittel“ (in der Statistik auch „winsorisiertes Mittel“) auszuwerten. Beispiel: Gegeben sei die geordnete Messreihe i x 1, 3; 4, 5, 6, 7, 8; 10, 12 (n = 9), gewöhnlich liegen die Ausreißer vorne und hinten. Man wählt dann einen Wert k (Anzahl der gestutzen Werte, z. B.: k=2 entspricht 2x0,22 = 44 % der Werte) und berechnet den gestutzen Mittelwert (aus 56 % der Werte): 2 , 7 ) 8 7 6 5 4 ( 5 1 x 56 , 0 . Dieser ist völlig unempfindlich gegen Ausreißer. 3.9 Messgrößenanalyse Der Box-Plot (oder Boxand- Whisker-Plot) ist ein verbreitetes Hilfsmittel zur Analyse normalverteilter Messgrößen. Mit ihm können Aussagen über das Zentrum, die Streuung, Form und mögliche Ausreißer (s. Bild 3.7) gemacht werden. Bild 3.7: Prinzip des Box-Plot Die Konstruktion eines Box-Plot erfolgt in drei Schritten: 1. Konstruktion der Box: Median x 0,50 -Wert sowie oberes Quartil (Box-Grenze x 0,75 ) und unteres Quartil (Box-Grenze x 0,25 ) definieren die Box. Die Lage des Medians gibt eine Information über die Form der Verteilung. 2. Konstruktion der Zäune (x u und x o) : Mit Hilfe des Interquartilabstandes IQR wird der Bereich eingeschränkt, in dem noch Werte einer Verteilung liegen dürfen. 3. Identifikation von Ausreißern: Falls Messwerte den unteren Zaun unterschreiten oder den oberen Zaun überschreiten, handelt es sich um Ausreißer, also Werte, die nicht zur Verteilung gehören. Wegen seiner Einfachheit wird der Box-Plot vielfach zur schnellen Datenanalyse genutzt. 3 Verteilungen von Messdaten 59 56 3.10 Notwendiger Prüfaufwand Die Frage nach den Kosten eines Versuchsprogramms ist direkt mit dem Aufwand an Prüflingen n verbunden. Zur Erinnerung soll mit einem Versuch das Ziel verfolgt werden, irgendwelche Unterschiede oder Veränderungen zu erkennen. Statistisch ist dies die Frage nach einer lokalisierbaren Empfindlichkeit. Pauschal gilt die Aussage: Je stärker ein Effekt ist, umso geringer kann der Versuchsumfang sein. Im Umkehrschluss benötigt man viele Prüflinge, wenn ein schwacher Effekt erkannt werden muss. Gelöst werden kann diese Fragestellung über das Konfidenzintervall, welches einer statistischen Spannweite für die Einordnung eines Ergebnisses gleichkommt. Der Bereich eines zweiseitigen Konfidenzintervalls ist somit für normalverteilte Messwerte definiert als n sd x u x 0 0 2 / 1 . Hierin ist mit „d“ eine Prüfgröße eingeführt worden: , n s u x d x 2 / 1 0 diese drückt eine Abweichung bzw. Empfindlichkeit aus, und zwar zwischen wahren Zielwerten 0 0 , und Schätzwerten aus einer Stichprobe mit . n und s , x x Um eine vorgegebene Abweichung d erkennen zu können, muss jedoch der Prüfumfang (d. h. die Anzahl der Werte in einer Stichprobe) eine bestimmte Größe haben, nämlich 2 x 2 / 1 d s u n . Beispiel: Auf einer Zerreißmaschine sollen eine Anzahl von Probestäben einer neu komponierten Metalllegierung auf ihre Zugfestigkeit R m getestet werden. Die Festigkeitswerte dürfen später in der Produktionskontrolle pro Los um nicht mehr als x s 5,0 MPa streuen. Um die Prüfung wirtschaftlich durchführen zu können, interessiert in der Praxis der Mindestumfang eines Prüfloses. Die Frage ist dementsprechend: Wie viele Probestäbe müssen somit geprüft werden, um mit P A = 95%iger Wahrscheinlichkeit genau diesen Unterschied von d = 5,0 MPa zwischen den Probestäben erkennen zu können? 4 84 , 3 96 , 1 0 , 5 0 , 5 u n 2 2 975 , 0 Das heißt, mit 4 Prüflingen kann schon erkannt werden, ob x m s R ist 60 Teil A: Statistische Methoden zur Messdatenauswertung 57 Die Bestimmung einer Prüflosgröße ist somit einfach, wenn die (begrenzende) Streuung 0 der Großgesamtheit vorgegeben oder bekannt ist. Komplizierter wird die Abschätzung, wenn die Varianz der Großgesamtheit unbekannt ist. In diesem Fall ist folgendermaßen vorzugehen: Es wird zunächst eine kleine Stichprobe vom Umfang x n geprüft und hieraus die Varianz x n 1 i i x 2 x x x 1 n 1 s 2 bzw. Streuung s x als Schätzwert für 0 bestimmt. Aus dem Ansatz für die t-Verteilung (s. Kapitel 5) kann sodann die letztlich notwendige Prüfanzahl hergeleitet werden: 2 x 2 / 1 ; 1 n d s t n x , (mit x n n und = Irrtumswahrscheinlichkeit). Allgemein wird der t-Wert als Konfidenzschranke benutzt, wenn ein wahrer Wert (hier d) ohne Kenntnis der zugehörigen Streuung 0 abgesichert werden soll. Weiterführung des Beispiels: Angenommen sei, dass in einem Vorversuch mit einer Stichprobe aus 4 n x Prüflingen die Streuung zu 0 , 6 s x MPa bestimmt worden ist. Hierfür ist dann der t-Wert 182 , 3 t 975 , 0 ; 1 4 aus einer Tabelle abzulesen. Die Auswertung führt somit zu 15 0 , 5 0 , 6 182 , 3 n 2 Prüflinge. D. h., weil die wahre Streuung unbekannt ist bzw. hierfür nur ein ungenauer (meist zu großer) Schätzer aus einem Laborversuch vorliegt, muss die Stichprobe deutlich größer sein, um eine Aussage mit einer bestimmten Wahrscheinlichkeit machen zu können. 3.11 Notwendige Laborprüfzeit Die vorstehenden Überlegungen lassen sich zu der Frage der Bestimmung der Testzeit für „Laborprüfungen“ weiterführen. Unter Nutzung der Weibull-Funktion und des Bayesansatz, haben hierfür Lipson & Sheth die folgende Formel entwickelt 3 Verteilungen von Messdaten 61 58 C 1 R b 2 1 t t ) 1 n ( . Hierin bezeichnen: 1 t = zu ermittelnde Testzeit (in h), n = Anzahl der Prüflinge, welche die Zeit 1 t ohne Fehler (Ausfall) überstehen sollen, 2 t = Zielgröße der Lebensdauer (in h), R = Zuverlässigkeit (z. B. 10 B auf der Weibullgeraden), C = Vertrauensbereich (Confidenz Level der WBF, ist i.d.R. 90 % = 0,9), b = Formparameter der WBF (Erfahrungswert, oft b - 4). Die Umformung der Formel führt zu b 1 2 1 R ln ) 1 n ( ) C 1 ln( t t . Es muss also durch die Prüflinge die Zeit t 1 erreicht werden, um die vorgegebene Lebensdauer t 2 abzusichern. Beispiel: Türscharniere sollen in der Anwendung 1.000 h Lebensdauer erreichen. Dies soll mit einer Zuverlässigkeit von R(t) = 0,9 (90%) gewährleistet werden, wobei eine Aussagesicherheit von C = 0,9 (90%, d. h. % 5 A % 95 A P P ist Konfidenzintervall der WBF) einzuhalten ist. Aus Feldversuchen weiß man, dass der Formparameter b = 2 ist; für n = 10 Prüflinge ergibt sich dann die Laborzeit zu: . h 446 . 1 9 , 0 ln 11 1 , 0 ln 000 . 1 t 2 1 1 D. h., alle Prüflinge müssen die Prüfprozedur im Labor mit mindestens 1.446 h ohne Ausfall überstehen. Wenn der Prüfumfang vergrößert wird, auf beispw. n=15, so verkürzt sich die Prüfzeit auf t 1 = 1.291 h. Bei n= 18, wird nur noch t 1 = t 2 benötigt. Dies beruht auf einer höheren Aussagesicherheit durch mehr Prüflinge. Hieraus ist auch abzuleiten, dass die Anzahl der Prüflinge nicht beliebig gewählt werden kann. 62 Teil A: Statistische Methoden zur Messdatenauswertung 59 Im Umkehrschluss gilt natürlich auch, wenn einzelne Prüflinge die erforderliche Testzeit nicht erreichen, dass die restlichen Prüflinge eine längere Testzeit aufweisen müssen. Beispiel: Wenn von 10 Prüflingen vor Erreichen der Testzeit 2 Prüflinge ausfallen, dann müssen die verbleibenden 8 Prüflinge mindestens t 1 = 1.560 h überleben. 3 Verteilungen von Messdaten 63 60 4 Theorie der Messfehler Wenn in der Praxis irgendwelche physikalischen Messungen vorgenommen werden, so sind die erhaltenen Daten niemals exakt. Dies bemerkt man, wenn Messungen wiederholt werden. Es treten dann Schwankungen oder Ungenauigkeiten in den erhaltenen Messwerten auf. Da Rückschlüsse aus den Daten gezogen werden sollen, ist es wichtig, den Messfehler (s. DIN 1319) in etwa abschätzen zu können. 4.1 Struktur des Messfehlers Jede Messung ist fehlerbehaftet. Dieser Fehler zerfällt in den systematischen und in den zufälligen Fehler / DIN 00/ . Der systematische Fehler ist derjenige, der bei gleichen Messvorgängen immer wieder die gleiche Struktur aufweist. Beispielsweise hat eine Stoppuhr eine konstante Abweichung von 1 Promille. Bei der Messung von 10 Sekunden ergibt sich immer ein systematischer Fehler von 0,01 Sekunden. Ebenso zeigt eine Waage ohne Belastung schon eine positive Voreilung von 8 Gramm an, so ist jede Wägung mit diesem systematischen Fehler behaftet. Im Gegensatz zum systematischen Fehler beeinflusst der zufällige oder statistische Fehler die Messergebnisse in ganz unvorhersehbarer Weise. Die Größe dieses Fehlers lässt sich jedoch abschätzen, wenn Ergebnisse mehrerer wiederholter Messungen zur Verfügung stehen. Meist stellt sich der zufällige Fehler oft als Summe vieler Elementarfehler (Ablesefehler, Umgebungsveränderungen) dar und kann somit (wegen der Gültigkeit des „zentralen Grenzwertsatzes“ *) ) als normalverteilt angenommen werden. Die Ergebnisse n 1 x , , x wiederholter Messungen eines wahren Wertes 0 können dann als „Realisationen“ aus einer 2 0 0 , N -Verteilung aufgefasst werden. Hier ist der zufällige Fehler bei der i-ten Messung nach GUM (s. auch DIN EN 13005) gerade 0 i i x , (4.1) während der systematische Fehler (konstanter Bias) gegeben ist durch x 0 i . (4.2) Damit ergibt sich, dass der Messwert repräsentiert wird durch i i i x x (= Mittelwert + systematischer Fehler + zufälliger Fehler). (4.3) *) Anmerkung: Zentraler Grenzwertsatz der Statistik: Treffen i esamteinfluss normalverteilt, selbst wenn die Zufallseinflüsse selbst nicht normalverteilt sind. Das Ziel jeder Messung ist die Bestimmung des wahren Wertes einer physikalischen Größe. 61 Mit den Messwerten n 1 x , , x aus einer hinreichend großen Stichprobe lässt sich der wahre Wert i 0 x und 0 nach DIN 55303-2 als Näherungswert schätzen: n 1 i i x n 1 x (Schätzer für 0 bei Vorliegen einer Stichprobe n) (4.4) bzw. mit der empirischen Stichprobenvarianz (hier als Varianzzerlegung) ² x n x 1 n 1 s n 1 i 2 i 2 x ( 2 x s ist zunächst ein Schätzwert für 2 0 ) (4.5) kann letztlich vorhergesagt werden, dass der wahre Wert aus Wiederhol-Messungen in einem bestimmten Intervall mit dem Gauß-Quantil % u (s. Vertrauensbereich) liegen wird: . u x . bzw , n s u x n s u x 0 % 0 x % 0 x % Die Streuung 0 wird hier wieder über das Wurzel-n-Gesetz geschätzt. 4.2 Konfidenzintervall In der Regel kann somit der unbekannte Mittelwert 0 einer Grundgesamtheit nicht durch einen einzigen Mittelwertschätzer x aus einer Stichprobe angegeben werden, sondern es kann nur ein Bereich eingegrenzt werden, in dem der wahre Mittelwert 0 wahrscheinlich zu finden ist. Da man aber die Information über 0 durch Zufallsexperimente erhält, kann nur der Bereich definiert werden, in dem 0 mit einer bestimmten Irrtumswahrscheinlichkeit nicht enthalten ist. Folgerichtig gibt es einen Wahrscheinlichkeitsbereich 1 , in dem 0 höchstwahrscheinlich zu finden ist. Diesen Bereich nennt man „Konfidenzintervall zum Niveau 1 “ oder auch „Vertrauensbereich“ bzw. „Vertrauensintervall“ / FISC 05/ . Die geläufigste Vorgehensweise zur Eingrenzung eines Konfidenzintervalls besteht darin, dass für einen tatsächlichen Wert ein Punktschätzer x aus Messwerten herangezogen wird. Die Verteilung der Schätzfunktion x wird dann von den bekannten Werten i x (i = 1, N n ) und der Standardabweichung x s (x i ) *) abhängen. Wird nun die standardisierte Zufallsvariable n / s x x 0 0 0 ( = Groß- und 0 =Grundgesamtheit), (4.6) gebildet, so lassen sich Grenzen bzw. Quantile 2 1 u , u finden, die einen 1 -Konfidenzbereich für die Wahrscheinlichkeit dieser Aussage bilden, und zwar *) Anm.: Die Streuung der Mittelwerte ist um n kleiner als die Streuung der n Einzelwerte x s , dies ist Aussage des zuvor schon benutzten Wurzel-n-Gesetzes von Gauß. 66 Teil A: Statistische Methoden zur Messdatenauswertung 62 1 u n / s x u P 2 x 0 1 für alle i x (i = 1, , n). (4.7) Beispiel: Auf einem Spulautomaten werden an 1.000 Stationen Garnrollen gewickelt. Für die automatische Bestückung ist es wichtig, dass an allen Stationen der Wickelvorgang in etwa gleich lange dauert. Um eine Aussage für alle Stationen machen zu können, werden an 10 beliebigen Stationen die Wickelzeiten gemessen: Station i 1 2 3 4 5 6 7 8 9 10 Zeit i x (Sek.) 11,0 11,1 10,7 11,5 11,2 10,9 10,6 11,2 11,4 10,8 Hieraus soll eine mittlere Wickelzeit über alle Stationen prognostiziert werden. Zunächst ist festzustellen, dass alle Messwerte unabhängig voneinander und zufällig erfasst worden sind, daher kann eine Normalverteilung 2 , N : GH angenommen werden. Der Schätzwert für den Mittelwert folgt aus den Messungen 10 1 i i . Sek 04 , 11 x 10 1 x und ebenso der Schätzwert für die Varianz zu 2 10 1 i 2 i 2 x . Sek 087 , 0 x x 9 1 s bzw. die Streuung zu x s = 0,29 Sek. Das zweiseitige Konfidenzintervall für den Mittelwert aus zufälligen Messungen (d. h., eine Mittelwertverteilung) grenzt sich dann ein zu 2 / 1 x 2 / 1 x u n s x ; u n s x . (4.8) Für % 5 ˆ 05 , 0 Irrtum findet sich aus der Tabelle, d. h. mit der Wahrheitsannahme, 96 , 1 u u 975 , 0 2 / 1 der wahrscheinliche Streubereich: 22 , 11 ; 86 , 10 96 , 1 10 29 , 0 04 , 11 ; 96 , 1 10 29 , 0 04 , 11 , 4 Theorie der Messfehler 67 63 d. h., mit 95%iger Wahrscheinlichkeit liegt der wahre Mittelwert in dem abgesteckten Intervall. Reicht diese Aussagegenauigkeit nicht aus, so kann diese ohne Weiteres gesteigert werden, z. B. auf 01 , 0 mit 576 , 2 u u 995 , 0 2 / 1 zu (10,81; 11,28), d. h. mit 99 % Wahrscheinlichkeit. Man erkennt an der Auftragung, dass mit kleinerer Irrtumswahrscheinlichkeit (1% gegenüber 5%) das Konfidenzintervall zwangsläufig größer wird, womit aber die Aussage letztlich sicherer wird. 4.3 Gauß’sches Fehlerfortpflanzungsgesetz Wenn in der Praxis die interessierende Größe direkt gemessen werden kann, so spricht man in der Statistik von der „direkten Beobachtung“ eines wahren Wertes. Muss die interessierende Größe aber aus anderen messbaren Größen berechnet werden, so spricht man von einer „indirekten Beobachtung“. Alle indirekten Größen müssen somit aus fehlerbehafteten Größen berechnet werden und sind somit ebenfalls fehlerbehaftet. Dies hat Gauß (1777-1855) herausgefunden. Vereinfacht kann somit formuliert werden: Das hierauf begründete „Fehlerfortpflanzungsgesetz“ lautet verallgemeinert: In Ergänzung des Erwartungswertes i i x ˆ x f E (d. h. Summation der Mittelwerte) Berechnet sich die interessierende Größe als Funktion i n 1 x f x , , x f aus n direkt messbaren Größen n , 1 i x i und ist die Funktion i x f nach i x differenzierbar i x / f , so gilt das Fehlerfortpflanzungsgesetz n 1 i 2 i 2 i x i x i n 1 s x f x , , x f Var . (4.9) „Es pflanzen sich nicht die Abweichungen von Messgrößen (z. B. die Toleranzen) fort, sondern die entsprechenden Varianzen pflanzen sich fort“. 68 Teil A: Statistische Methoden zur Messdatenauswertung 64 sollen noch einige Formen des Fehlerfortpflanzungsgesetzes diskutiert werden, wobei jeweils 2 1 x , x und 2 1 s , s zu Werten x i x i mit Abweichungen bekannt sein sollen. Gauß’sche Verteilungskenngrößen Fall 1: Additiver Zusammenhang mit unabhängigen Größen ) Funktion der Varianz ( s s 1 s 1 x , x f Var ) Funktion der wert Erwartungs ( x x x f E ) Funktion ( x x x , x f 2 i 2 2 2 2 1 2 2 1 2 1 i 2 1 2 1 Fall 2: Subtraktiver Zusammenhang mit unabhängigen Größen 2 i 2 2 2 2 1 2 2 1 2 1 i 2 1 2 1 s s ) 1 ( s 1 x , x f Var x x x f E x x x , x f Fall 3: Multiplikativer Zusammenhang 2 2 2 1 2 1 2 2 2 1 2 1 i 2 1 2 1 s x s x x , x f Var x x x f E x x x , x f Fall 4: Divisioneller Zusammenhang 2 2 4 2 2 1 2 1 2 2 2 1 2 1 i 2 1 2 1 s x x s x 1 x , x f Var x / x x f E x / x x , x f Additive und subtraktive Zusammenhänge kommen bei Maßketten oder Zeitgrößen häufig vor. Multiplikative und subtraktive Zusammenhänge findet man hingegen bei Flächen-/ Volumenberechnungen oder physikalischen Größen (Elektrotechnik). Die Handhabung des Fehlerfortpflanzungsgesetzes soll weiter an kleinen Zahlenbeispielen demonstriert werden. Hierzu sind Toleranzprobleme prädestiniert. Beispiel: In einem Anwendungsfall zeigen sich Lebensdauerprobleme, weil in einer Montagesituation immer zu viel Spiel vorgesehen wird. Ist das gewählte Spiel tatsächlich notwendig oder kann es verringert werden? 4 Theorie der Messfehler 69 65 Die folgende Abbildung soll die symbolische Montagesituation von zwei Großserienteilen zeigen, wobei C pk =1,0, d. h. 3 oder 99,73 % Gutteile sein soll. 2 , 0 3 , 0 1 100 x 1 , 0 2 50 x 0,3 0,4 2 1 150 x x y Annahme: Alle Teile liegen zu 99,73 % im Toleranzfeld, d. h. die Toleranzfeldgröße sei 2 , 1 2 , 1 s 6 T , ( 3 bei NV *) ). Demzufolge findet sich für 0333 , 0 6 2 , 0 6 T s , 0833 , 0 6 5 , 0 6 T s 2 2 1 1 und damit nach dem Fehlerfortpflanzungsgesetz . 0894 , 0 008 , 0 0333 , 0 0833 , 0 s s ) y ( Var s 2 2 2 2 2 1 y Für die statistische Toleranz des Schlussmaßes ergibt sich 27 , 0 5364 , 0 s 6 T y y und somit für das gesamte Schlussmaß 27 , 0 y 05 , 150 2 T y y . Beispiel: In einem elektrischen Gerät liegt eine Widerstandsschaltung vor. Die Einzelwiderstände werden in Serie hergestellt und sind damit auch toleranzbehaftet. Welche Abweichung ergibt sich bei der dargestellten Parallelschaltung? *) Anmerkung: In der QS wird mit 3 die „natürliche Fertigungsstreuung“ einer überwachten Fertigung bezeichnet. 05 , 150 y 50 x 05 , 100 x 2 1 70 Teil A: Statistische Methoden zur Messdatenauswertung 66 1 R 2 R 12 100 R R 2 1 Der Gesamtwiderstand der Parallelschaltung ist 2 1 2 1 R R R R R . Da dies ein nichtlinearer Zusammenhang ist, muss hier das Abweichungsfortpflanzungsgesetz in der folgenden Form 2 1 i 2 R 2 nenn i i s R R ) R ( Var angewandt werden. Die Ableitungen bestimmen sich aus der Quotientenregel 2 v v u v u y , ) x ( v ) x ( u y zu . R R R R R , R R R R R ) 1 ( R R R R R R R 2 2 1 2 1 2 2 2 1 2 2 2 2 1 2 1 2 1 2 1 Damit folgt für die Gesamtvarianz 2 R 2 nenn 2 2 1 2 1 2 R 2 nenn 2 2 1 2 2 2 1 s R R R s R R R ) R ( Var . Die Einzelstreuungen für s 3 betragen dann 4 6 24 s s 2 1 R R und die entsprechenden Vorfaktoren 4 Theorie der Messfehler 71 67 4 1 R R R R R R nenn 2 2 1 2 2 nenn 2 2 1 2 1 . Sodann ergibt sich 2 4 4 1 2 ) R ( Var 2 2 . Die Toleranz der Parallelschaltung verringert sich somit auf 6 12 ) R ( Var 6 T R . Beispiel: Ein Unternehmen stellt Li-Ionen-Akkus für E-Fahrzeuge her. Um eine zu starke Erwärmung der Zellen zu verhindern, muss die Stromaufnahme begrenzt werden. R I I U ) 5 % 10 ( % 10 50 R ) V 20 % 5 ( % 5 V 400 U Stromstärke folgt aus dem Ohmschen Gesetz mit Nennwerten A 8 50 V 400 R U I . Da die Einzelwerte mit Abweichungen behaftet sind, muss das Fehlerfortpflanzungsgesetz (s. divisionelle Form) angewandt werden. A 44 , 1 5 50 400 20 50 1 s R U s R 1 I Var 2 4 2 2 2 2R 4 2 2U 2 bzw. es gilt für die Streuung A 2 , 1 s I . Damit schwankt also die Stromstärke wie folgt: . A 2 , 1 A 8 I Beispiel: In der Messtechnik muss gewöhnlich der „wahrscheinliche Gesamtfehler“ (s. Fa. Hottinger Baldwin Messtechnik, Darmstadt) festgestellt werden, da jede Anzeige mit Fehlern behaftet ist. Dieser ergibt sich als Wurzel aus der Summe der quadratischen Einzelfehler F i zu 72 Teil A: Statistische Methoden zur Messdatenauswertung 68 ... F F F G 2 3 2 2 2 1 W . Dieser Ansatz unterstellt, dass alle Fehlergrößen normalverteilt sind und die sogenannten natürlichen Streuungen alle gleich s 3 sind. Anwendungsfall: An einem Biegebalken werden mit DMS die Dehnungen gemessen. Der Messverstärker zeigt bei einer Belastung mit 100 N genau 633 Digits ˆ Messverstärker (KWS 3050) mit Linearitätsfehler F 1 = 0,05 % Anzeigefehler F 2 = 1 dig Ableseunsicherheit F 3 = 0 % Fehler aus der Verschaltung der Widerstände F 4 = 0,02 % DMS-Toleranz F 5 = 1 % Um die Fehler wichten zu können, müssen diese alle in Prozent ausgedrückt werden. *) B = 633 dig, d. h. % 16 , 0 % 100 633 1 F 2 Gesamtfehler % 014 , 1 0289 , 1 1 02 , 0 0 16 , 0 05 , 0 G 2 2 2 2 2 W Korrigierter physikalischer Anzeigewert für die Dehnungen m / m 4 , 6 633 ± 0,0064 mm/ m. *) Anmerkung: Angaben in Bedienungsanleitungen, z. B. ±1 Digit (= Digital-Einheit) von 1000, bedeutet: F = ±0,1 %. 4 Theorie der Messfehler 73 69 Beispiel: Auf einer Messstrecke werden Linearmotoren getestet, die in großen CNC- Werkzeugmaschinen eingesetzt werden sollen. Es gilt eine Beschleunigung von 2 s m 2 a zu erreichen, wobei der verwendete Beschleunigungsaufnehmer eine Toleranz von 2 s m 1 , 0 aufweist. Die noch festzulegende Messstrecke soll in der vorgegebenen Zeit von t = 3 Sekunden abgefahren werden, wobei ein Zeit- Messfehler von . sec 05 , 0 auftreten kann. Wie lang ist die Messstrecke zu begrenzen? zurückgelegte Wegstrecke bei linear beschleunigten Systemen , m 9 3 2 2 1 t a 2 1 s 2 2 der Messfehler für den Weg beträgt gemäß dem Fehlerfortpflanzungsgesetz 2 2 t t s a a s s bzw. eingesetzt 2 2 2 t t a a 2 t s , insofern ergibt sich für die Wegstrecken-Streuung 29 , 0 09 , 0 2 , 0 05 , 0 3 2 1 , 0 2 3 s 2 2 2 m 54 , 0 s , die zurückzulegende Messstreckenlänge streut dann um m 54 , 0 9 ) t , a ( s . 74 Teil A: Statistische Methoden zur Messdatenauswertung 70 5 Statistische Tests In den vorhergegangenen Kapiteln ging es darum, gewisse Parameter von Grundgesamtheiten zu schätzen. Oft liegen die Verhältnisse aber anders, man hat gewisse Vorgaben und muss diese durch Stichprobenauswertungen bestätigen oder verwerfen. Dies leisten statistische Hypothesen / PREC 93/ , von denen einige im Folgenden diskutiert werden sollen. 5.1 Hypothesentests Ein bei Versuchen vielfach vorkommendes Problem ist, die Richtigkeit von Aussagen zu überprüfen. Beispielsweise, ob ein Parameter größer oder kleiner als ein bestimmter Wert ist oder in einem bestimmten Intervall liegt, eine Zufallsgröße normalverteilt ist etc.. Statistische Testverfahren / DÜRR 17/ können hier helfen, mit einer kleinen Irrtumswahrscheinlichkeit eine richtige Entscheidung zu treffen. Nehmen wir einmal an, es soll überprüft werden, ob ein Parameter einer vorliegenden Normalverteilung in einem bestimmten Bereich liegt oder nicht: Diese beiden verschiedenen Möglichkeiten sollen mit „Null- und Alternativhypothese“, d. h. mit 0 H und 1 H , bezeichnet werden. Interessiert beispielsweise, ob der Mittelwert x einer ausgewerteten kleinen 2 x s , x N - Stichprobe stets größer oder kleiner als ein wahrer Wert (= Sollwert) 0 ist, so lautet die Nullhypothese 0 H : 0 x und die Alternativhypothese 1 H : 0 x . Man wertet nun eine Stichprobe n 1 x , , x aus und soll sich aufgrund des ermittelten Mittelwertes x für eine der beiden Hypothesen entscheiden, so kann man einerseits den Fehler machen, dass, obwohl 0 H vorliegt, man sich für 1 H entscheidet, so macht man einen „Fehler 1. Art“ (Lieferantenrisiko). Andererseits kann man sich auch fälschlicherweise für 0 H entscheiden, wenn 1 H vorliegt; man macht dann einen „Fehler 2. Art“ (Abnehmerrisiko). Hierzu sei noch einmal die folgende Übersicht gegeben: es liegt vor Entscheidung für 0 H 1 H 0 H richtig Fehler 2. Art ( -Fehler) 1 H Fehler 1. Art ( -Fehler) richtig 71 Man weiß natürlich nicht, ob man in einer konkreten Situation einen Fehler macht, sondern lediglich, welcher Art dieser ist. Ist aber bekannt, dass das verwandte Entscheidungsverfahren nur mit einer Wahrscheinlichkeit von höchstens den Fehler 1. Art ( -Fehler) macht, so spricht man von einem Test zum Niveau , egal mit welcher Wahrscheinlichkeit der Fehler 2. Art ( -Fehler) vorkommt. Beispiel: Es wurde eine automatisierte Verpackungsstation für das Abfüllen von Zucker in Tüten zu je 500 g entwickelt. Der Abnehmer verlangt eine Streuung von g 0 , 3 0 . Da die Abfüllmenge NV-verteilt ist, also um einen Mittelwert schwankt, soll experimentell bestimmt werden, ob die Maschine im Mittel mehr oder weniger als g 500 0 abfüllt. Dazu werden 9 Tüten hintereinander abgefüllt. Um eine abgesicherte Aussage machen zu können, muss eine äquivalente Hypothese bewiesen werden. Lfd. Nr. der Messung 1 2 3 4 5 6 7 8 9 Füllmenge i x (g) 506 502 500 505 499 505 501 504 498 Mittelwert: g 22 , 502 x (soll gegen 0 konvergieren für großes n) Varianz: 2 2 x g 44 , 8 s Streuung: x s = 2,9 g (Vorgabe eingehalten) Das Testproblem lautet somit: 0 0 x : H gegen 0 1 x : H . Wenn der Mittelwert x einer beobachteten kleinen Stichprobe n 1 x , , x größer als der Schrankenwert 0 ist, so spricht dies sicherlich für das Vorliegen von 1 H . Ist er kleiner, so würde man eher annehmen, dass 0 H zutrifft. Da es sich um eine Zufallsstichprobe für einen Mittelwert handelt, wählt man als Testgröße (siehe auch Kap. 3.1) die Fehlergröße des Konfidenzintervalls x 0 s / x n u , (5.1) hierin gehen die wahren Werte für den Mittelwert 0 und die Streuung 0 ein. Die Entscheidung für 1 H ist zutreffend, falls 76 Teil A: Statistische Methoden zur Messdatenauswertung 72 1 x 0 u s x n u (5.2) ist bzw. die Entscheidung für 0 H ist zutreffend, falls 1 x 0 u s x n u (5.3) ist. Weil 22 , 502 x g ist, soll auf die Alternativhypothese 1 H mit einem Irrtum von 1einseitige Vertrauensgrenze) getestet werden: 95 , 0 x 0 u 65 , 1 30 , 2 9 , 2 500 22 , 502 9 s x n u . (5.4) (u folgt aus Tabelle 2 im Anhang = Quantile der Standard-NV). 1 H trifft somit zu, d. h., mit großer Wahrscheinlichkeit (hier 95 %) wird also die Maschine die Vorgaben nicht einhalten können. Der durchgeführte Test kann immer dann sicher angewendet werden, wenn die Messgrößen zufällig und normalverteilt vorliegen. 5.2 t-Test Der so genannte t-Test wird in der Statistik angewandt, wenn der Erwartungswert bei unbekannter Standardabweichung abgesichert werden soll. Hierbei wird der Mittelwert x einer Stichprobe n mit 0 aus einer Großgesamtheit verglichen, von der man nicht genau weiß, wie sie normalverteilt ist. Für die unbekannte Streuung 0 wird ersatzweise die Streuung s x der Stichprobe herangezogen. Der Ablauf ist wie vorher schon dargestellt: Es wird die Nullhypothese 0 0 x : H aufgestellt und an der Alternativhypothese (H 1 ) getestet. Eine vorgegebene Testgröße t 0 muss dabei innerhalb gewisser Schranken liegen, wie das folgende Schema wiedergibt: Voraussetzung Messgrößen i x aus NV mit 0 = bekannt, 0 = unbekannt Testgröße: x 0 0 s x n t 0 H : 0 x 1 H : Ablehnung von 0 H , wenn 0 x : 1 ; 1 n 0 t t (einseitig) 0 x : 1 ; 1 n 0 t t (einseitig) 0 x : 2 / 1 ; 1 n 0 t t (zweiseitig) 5 Statistische Tests 77 73 Die t-Werte liegen normalerweise in allen Statistikbüchern tabelliert vor. Sie werden jeweils zu einem Freiheitsgrad (FHG) *) und einem vorgegebenen -Fraktil abgelesen. Die t- Verteilung (Student-Verteilung) und die Normalverteilung sind sich im Verlauf sehr ähnlich. Beispiel: Ein Zulieferant soll geblasene Schwimmer aus Kunststoff für den chemischen Anlagenbau liefern. Vereinbart ist, dass diese ein mittleres Teilegewicht von mindestens 1.000 g haben sollen. Es ist jedoch keine Vorgabe für eine Abweichung oder Streuung (d. h.: N(1.000,? )) gegeben. Aus der ersten Lieferung von Schwimmern wird die folgende Stichprobe gezogen: Schwimmer 1 2 3 4 5 6 7 i x = Gewicht (g) 920 975 1.030 910 955 925 1.010 Es soll auf einem Signifikanzbzw. Irrtumsniveau 5 % überprüft werden, ob das mittlere Gewicht der Forderung entspricht. Der Test erfolgt hier einseitig, da höhere Gewichte zugelassen sind. Die Null- und Alternativhypothese lautet also: g 000 . 1 x : H 0 0 gegen g 000 . 1 x : H 0 1 . Ermittelt aus n = 7: g 7 , 960 x , x s = 46,5 g. Die Testgröße ist 236 , 2 5 , 46 000 . 1 7 , 960 7 s x n t x 0 0 . Es liegen FHG = 7 - 1 = 6 Freiheitsgrade vor. Das 95 , 0 ; 6 t -Fraktil beträgt somit 943 , 1 t 95 , 0 ; 6 . Damit erfolgt der Test auf 1 H 943 , 1 t t 236 , 2 95 , 0 ; 6 0 . Also muss 0 0 x H auf dem Signifikanzniveau 1- 95 % (oder mit = 5 % Irrtum) zugunsten von 0 1 x H abgelehnt werden. Das heißt, in 95 % aller Fälle wird der Zulieferant mit seinem Herstellverfahren leichtere Schwimmer liefern, als die verlangten 1.000 g. *) Anmerkung: Der FHG = n - 1 drückt in der Statistik die Variabilität aus. Soll beispielsweise ein festes x mit 3 / x x x x 3 2 1 berechnet werden, so sind nur zwei Werte variierbar und der dritte Wert liegt fest. 78 Teil A: Statistische Methoden zur Messdatenauswertung 74 5.3 Tests für Varianzen Bei den nachfolgenden Varianztests werden zwei unabhängige Stichprobenverteilungen bezüglich ihrer Varianzen (d. h. gleiche Streuungen als Merkmal für die Gleichheit von Verteilungen) hinsichtlich einer Varianzvorgabe (aus GG oder GH) miteinander verglichen. 5.3.1 Chi-Qudrat-Test Angenommen sei, dass für ein Problem eine N 2 0 0 , -normalverteilte Grundgesamtheit von Daten vorliegt. Anhand einer kleinen Stichprobe vom Umfang 0 N n und der daraus ermittelten empirischen Varianz 2 x s soll getestet werden, ob die Annahme, dass die Varianz einer Stichprobe letztlich einen bestimmten Wert 0 einhält, aufrechterhalten werden kann oder abzulehnen ist. Der „Homogenitäts- oder Hypothesentest“ lautet somit: 2 0 2 x 0 s : H gegen 2 0 2 x 1 s : H . Die Nullhypothese ist auf dem Signifikanzniveau abzulehnen, wenn der Wert 2 0 außerhalb des Vertrauensbereichs liegt. Eine derartige Frage wird mit dem 2 Chi -Test (Fraktile von 2 sind tabelliert) gelöst. Der Test kann gemäß dem folgenden Schema durchgeführt werden: Voraussetzung Normalverteilung Testgröße: 2 0 2 x 2 0 s 1 n 0 H : 2 0 2 x s 1 H : Ablehnung von 0 H , wenn 2 0 2 x s : ; 1 n 2 2 0 2 0 2 x s : 1 ; 1 n 2 2 0 2 0 2 x s : 1; n 2 2 / 1 1; n 2 2 0 oder Beispiel: Wasseraufbereitungsanlagen sollen mit einer möglichst geringen Streuung 0 die Einhaltung eines bestimmten Mineraliengehaltes (8,5 mg/ l) garantieren. Für die Konzeption der Anlage gilt es zwei Verfahren zu testen und miteinander zu vergleichen, um hierauf begründet eine Richtungsentscheidung festlegen zu können. 5 Statistische Tests 79 75 Um den Auswahlprozess zu verkürzen, werden im Stundentakt eines Testlaufs je vier Messbecher von jeweils einem Liter Wasser abgefüllt. Diese Stichproben zeigen bezüglich des Mineraliengehaltes die folgenden Ergebnisse: Anlage 1 8,17 5,53 7,12 8,01 / l mg 21 , 7 x 1 , l g/ m 21 , 1 s 1 Anlage 2 9,32 8,24 8,99 9,10 / l mg 91 , 8 x 2 , l g/ m 47 , 0 s 2 Es soll nunmehr diskutiert werden, ob die Streuungsvorgabe von 0 = 0,5 mg/ l bei jedem Verfahren mit 99%iger Sicherheit eingehalten werden kann; dazu gilt es die folgende Hypothese zu überprüfen: 2 0 2 i 0 s : H (eingehalten) gegen 2 0 2 i 1 s : H (zu nicht eingehalten) . Die Testgrößen für die beiden Anlagen lauten: 57 , 17 5 , 0 21 , 1 3 s 1 n 2 2 2 0 2 1 1 2 01 und 65 , 2 5 , 0 47 , 0 3 s 1 n 2 2 2 0 2 2 2 2 02 . Entsprechend lauten die 2 -Fraktile für 2 0 2 i 1 s H : . 07 , 0 , 84 , 12 005 , 0 ; 3 2 / 01 , 0 ; 3 995 , 0 ; 3 2 / 01 , 0 1 ; 3 2 2 2 2 Test für die Anlage 1 auf H 1 : 84 , 12 57 , 17 995 , 0 ; 3 01 2 2 . Für die Anlage 1 muss die Hypothese, dass die Standardabweichung 0 tatsächlich im Betrieb eingehalten werden kann, mit 99 % Wahrscheinlichkeit verworfen werden, da ja auch schon die Stichprobe die Vorgabe verletzt. Die Anlage wird hiernach immer eine größere Streuung aufweisen. 80 Teil A: Statistische Methoden zur Messdatenauswertung 76 Test für die Anlage 2 auf H 1 : 84 , 12 65 , 2 07 , 0 995 , 0 ; 3 02 005 , 0 ; 3 2 2 2 (Erfüllung der Bedingung) 0,07 005 , 0 ; 3 2 12,84 995 , 0 ; 3 2 57 , 17 01 2 65 , 2 02 2 Bild 5.1: Intervalltest für 2 -Werte Für Anlage 2 kann 0 H nicht verworfen werden, da die Testgröße 02 2 im Vertrauensbereich liegt. Die Anlage 2 wird vermutlich mit 99%iger Sicherheit 0 einhalten. 5.3.2 F-Test Der Fisher-Test wird angewandt, wenn Stichproben auf Gleichheit getestet werden sollen. Unterstellt wird dabei, dass diese aus einer unbekannten NV-verteilten Groß- oder Grundgesamtheit entstammen. Das Maß für Gleichheit ist immer gleiche Varianzen. Verglichen werden sollen meist zwei stratifizierte Messreihen bzw. zwei unabhängige Stichproben m 1 x , , x und n 1 y , , y aus zwei 2 x x , N - und 2 y y , N -verteilten Großgesamtheiten. Man spricht hier dann von F-verteilten Zufallsvariablen mit (m - 1)- Zähler- und (n - 1)-Nennerfreiheitsgraden. Die Testgröße für die Gleichheit der zwei Messreihen ist der F-Wert oder Fisher-Wert 2 y 2 x 0 F . (5.5) Während 2 y 2 x s , s aufgrund einer relativ kleinen Stichprobe vom Umfang m bzw. n berechnet werden können, sind im Allgemeinen 2 x und 2 y unbekannt. In guter Näherung können aber die Stichprobenkenngrößen 2 y 2 x s , y ; s , x herangezogen und hiermit der F-Test rein schematisch durchgeführt werden. Durch nivellierte Falltests kann dabei eine ausreichende Sicherheit erzielt werden. 5 Statistische Tests 81 77 Voraussetzung Normalverteilung Testgröße: 2 y 2 x 0 s s F 0 H : 2 y 2 x s s 1 H : Ablehnung von 0 H , wenn 2 y 2 x s s : ; 1 n ; 1 m 0 F F 2 y 2 x s s : 1 ; 1 n , 1 m 0 F F 2 y 2 x s s : 2 / ; 1 n , 1 m 2 / 1 ; 1 n , 1 m 0 F oder F F Die F-Werte sind zu den Freiheitsgraden (FHG=n-1) und Signifikanzniveaus im Anhang tabelliert. Beispiel: Es soll untersucht werden, ob zwei Lackierverfahren qualitativ gleichwertig sind. Dazu werden kleine Blechproben auf einer Seite lackiert und durch Wiegen die Lackschichtmenge in Gramm gemessen. 1 2 3 4 5 6 7 8 9 10 11 12 Verfahren 1 4,0 7,6 6,5 5,9 8,6 7,3 5,2 4,8 6,1 6,1 Verfahren 2 4,7 5,7 5,7 5,0 4,7 4,6 5,5 5,2 5,5 5,5 5,4 5,2 Für das Verfahren 1 findet sich: 10 n , 37 , 1 s , g 21 , 6 x x und für das Verfahren 2 findet sich: . 12 m , 39 , 0 s , g 225 , 5 y y Die Testgröße ist: 34 , 12 ) 39 , 0 ( ) 37 , 1 ( s s F 2 2 2 y 2 x 0 . Es soll eine 95% sichere Aussage darüber getroffen werden, ob das Verfahren 1 immer eine größere Streuung gegenüber Verfahren 2 haben wird: : s s 2 y 2 x 95 , 0 ; 11 ; 9 0 F F 12,34 > 2,896, d. h., mit 95%iger Wahrscheinlichkeit wird x s immer größer als y s sein. 82 Teil A: Statistische Methoden zur Messdatenauswertung 78 6 Der Ausreißer-Test In vielen aufgenommenen Messreihen vermutet man oft Daten, die möglicherweise als Ausreißer zu bewerten sind. Bei der statistischen Auswertung würden diese Daten das Ergebnis so verfälschen, dass die Rückschlüsse unsicher oder falsch sind. Ist die Abweichung einzelner Beobachtungswerte von den restlichen Daten nicht durch Mess-, Schreib- oder Datenerfassungsfehlern zu erklären (d. h., sind systematische Fehler ausgeschlossen), so lässt sich mit „Ausreißer-Tests“ überprüfen, ob diese Daten überhaupt zur Stichproben-Verteilung passen. Werden die überprüften Daten als „nicht signifikant“ eingestuft, so sollten sie bei der weiteren Datenauswertung ausgeklammert werden, um eine Verfälschung der Ergebnisse zu vermeiden. Beispiel: Für einen speziellen Kunststoffkleber soll die Zug-Scherfestigkeit (in 2 m / m N ) bestimmt werden. Hierzu wurden 12 Scherproben angefertigt und bis zum Versagen getestet. Als Messergebnisse wurden die folgenden Messwerte dokumentiert: Messung i 1 2 3 4 5 6 7 8 9 10 11 12 Zug-Scherfestigkeit 2 m / m N 41 39 42 40 44 44 50 39 37 41 30 41 Im Folgenden sollen die beiden geläufigsten Ausreißer-Tests, und zwar Pearson-Test / DAVI 54/ und Grubbs-Test / GRUB 72/ , angewandt werden. Beide Tests gehen davon aus, dass die vorliegende Messreihe zunächst nach der Größe zu ordnen ist. Nr. des Messwertes 11 9 2 8 4 1 10 12 3 5 6 7 Messwert i x 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8 x 9 x 10 x 11 x 12 x Messwert min. max. 30 37 39 39 40 41 41 41 42 44 44 50 79 Anwendung des Pearson-Tests Anwendungsvoraussetzung ist, dass die n-Messwerte der Stichprobe Realisierungen aus einer Normalverteilung sind. Es besteht die Hypothese: 0 H : Der kleinste und der größte Messwert gehören zur Stichprobe! 1 H : Der kleinste und der größte Messwert gehören nicht zur Stichprobe! Die Hypothese 0 H ist zum Niveau zu verwerfen, falls 1 ; n n 1 i 2 i 1 n x Q x x 1 n 1 x x s R Q (kritischer Wert) (6.1) ist, bei kleiner als gilt dann 1 H . Die Q-Quantile sind in Statistikbüchern tabelliert (z. B. in den angegebenen Literaturstellen). Wird die Hypothese 0 H verworfen, so ist der kleinste oder der größte Wert in der Messreihe als Ausreißer anzusehen. Zunächst ist der jeweilige Mittelwert zu den Messdaten zu bestimmen 67 , 40 ) 488 ( 12 1 x n 1 x n 1 i i . Danach ist die Spannweite R und die Streuung s x zu ermitteln. Mit den vorstehenden Daten ergibt sich: . 72 , 4 24 , 22 x x 11 1 s , 20 30 50 x x R 12 1 i 2 i x 1 12 (6.2) Durchführung der Ausreißerprüfung: 99 , 0 ; 12 x Q 13 , 4 24 , 4 72 , 4 20 s R Q , (6.3) d. h., 0 H muss verworfen werden, somit gilt H 1 . Nach der vorstehenden Definition sind mit 99%iger Sicherheit der kleinste und der größte Wert als Ausreißer anzusehen. 84 Teil A: Statistische Methoden zur Messdatenauswertung 80 Bei nicht eindeutiger Aussage sollte ein weiterer Test durchgeführt werden, wie beispielsweise: Anwendung des einseitigen Grubbs-Test Auch der Grubbs-Test basiert auf der Normalverteilungsannahme für die ermittelten Messwerte. Die Hypothese wird jeweils mit einer Testgröße durchgeführt: 0 H : 1 ; n i 0 T T Ausreißer 1 H : 1 ; n i 1 T T kein Ausreißer Formulierung der Nullhypothese für den Kleinstwert: : H 01 Der Wert 1 x ist ein Ausreißer mit der Irrtumswahrscheinlichkeit , falls für die Testgröße gilt: 1 ; n x 1 01 T s x x T . (6.4) Ebenso gilt für den Größtwert : H n 1 n x ist kein Ausreißer mit der Irrtumswahrscheinlichkeit , falls 1 ; n x n n 1 T s x x T . (6.5) gilt. Wie zuvor sollen die gegebenen Daten wieder einer Ausreißerprüfung unterzogen werden: . T 55 , 2 98 , 1 72 , 4 67 , 40 50 s x x T , T 55 , 2 26 , 2 72 , 4 30 67 , 40 s x x T 99 , 0 ; 12 x 12 02 99 , 0 ; 12 x 1 01 Nach den beiden aufgestellten Hypothesen ( 0 H und n 1 H ) kann mit 99 % Wahrscheinlichkeit behauptet werden, dass der kleinste und der größte Messwert als Ausreißer anzusehen sind. Insofern ist der vorherige Pearson-Test bestätigt worden. 6 Der Ausreißer-Test 85 81 Beurteilungstabellen: Kritische Quantile des zweiseitigen Pearson-Tests Kritische Quantile des einseitigen Gubbs-Tests n 95 , 0 ; n Q 99 , 0 ; n Q n 95 , 0 ; n T 99 , 0 ; n T 3 4 5 6 7 8 9 10 12 15 20 30 40 50 100 2,00 2,43 2,75 3,01 3,22 3,40 3,55 3,69 3,91 4,17 4,49 4,89 5,15 5,35 5,90 2,00 2,45 2,80 3,10 3,34 3,54 3,72 3,88 4,13 4,43 4,79 5,25 5,54 5,77 6,36 3 4 5 6 7 8 9 10 12 15 20 30 40 50 100 1,15 1,46 1,67 1,82 1,94 2,03 2,11 2,18 2,29 2,41 2,56 2,75 2,87 2,96 3,21 1,16 1,49 1,75 1,94 2,10 2,22 2,32 2,41 2,55 2,71 2,88 3,10 3,24 3,34 3,60 Anmerkung: In vielen Statistikbüchern findet man enger gestaffelte Tabellenwerte mit bis zu 600 Messwerten. 86 Teil A: Statistische Methoden zur Messdatenauswertung 82 7 Multiple Messreihenanalyse Die meisten vorhergegangenen Überlegungen und Betrachtungen stützen sich auf nur eine Messreihe. Im Folgenden soll diese erweitert werden auf den Vergleich zweier beliebiger Messreihen. Um die Vorgehensweise transparent zu machen, soll das folgende Problem diskutiert werden. Beispiel: Zwei Hersteller liefern das gleiche elektronische Steuergerät, welches weiter in einem Pkw-E-Antrieb verbaut werden soll. Um die Funktion zu kontrollieren, werden an einer Abnahmestelle die Geräte kurz betrieben und als äquivalentes Qualitätskriterium die Stromaufnahme gemessen. Es ergaben sich die folgenden Werte: Messung j 1. Geräteserie j 1 x (A) 2. Geräteserie j 2 x (A) 1 2 3 4 5 6 7 8 9 10 n 1 11 12 13 14 15 n 2 1,26 1,23 1,28 1,27 1,22 1,26 1,24 1,27 1,21 1,25 ----- 1,20 1,25 1,24 1,29 1,26 1,21 1,24 1,28 1,29 1,25 1,27 1,23 1,24 1,27 1,29 Damit stellt sich die Frage: Können aus den Daten Rückschlüsse auf „Gleichheit“ der Geräte gezogen werden? Betrachtet man die Ergebnisse der 1. Messreihe als Beobachtungen aus einer 2 1 1 s , x N -verteilten Stichproben-Verteilung und die der 2. Messreihe aus einer 2 2 2 s , x N -verteilten Stichproben-Verteilung, so kann für Konfidenzbetrachtungen und Tests die Differenz der Mittelwerte d = 2 1 x x herangezogen werden. Bei der Analyse von Messreihen handelt es sich somit im Wesentlichen um einen Mittelwerttest unter Berücksichtigung unterschiedlicher Streueinflüsse. Hiernach müssen die nachfolgenden Fälle unterschieden werden. 1 Einleitung 87 83 Fall 1: Mittelwerttest und Konfidenzintervall bei bekannten Stichproben-Mittelwerten 2 , 1 x x und Varianzen 2 1 s , 2 2 s aus zwei beliebigen Messreihen. Da die beiden Messreihen einer normalverteilten Stichprobenverteilung entstammen, weiß man, dass auch die Summe bzw. Differenz 2 2 2 1 2 1 2 1 2 1 n s n s x x Z (7.1) normalverteilt ist. Es lässt sich somit ein beidseitiges 2 / 1 -Konfidenzintervall *) für die Mittelwertdifferenz 2 1 x x bestimmen: 2 2 2 1 2 1 2 / 1 2 1 2 2 2 1 2 1 2 / 1 2 1 n s n s u x x ; n s n s u x x . (7.2) Beispiel: Für die zuvor analysierten Steuergeräte ergeben sich aus den beiden Messreihen jeweils die Streuungen A 021 , 0 s 1 und A 028 , 0 s 2 . Auch die Mittelwerte können aus den Messreihen bestimmt werden: . A 254 , 1 x 15 1 x , A 249 , 1 x 10 1 x 15 1 j j 2 2 10 1 j j 1 1 Das zweiseitige Konfidenzintervall für die wahre Mittelwertabweichung 2 1 , beispielsweise zum Niveau 95 % (d. h. odann: . A 014 , 0 ; A 024 , 0 0098 , 0 96 , 1 005 , 0 ; 0098 , 0 96 , 1 005 , 0 n s n s u x x ; n s n s u x x 2 2 2 1 2 1 975 , 0 2 1 2 2 2 1 2 1 975 , 0 2 1 D. h., die Abweichungen zwischen den Mittelwerten werden mit 95%-iger Wahrscheinlichkeit nicht größer als der eingegrenzte Bereich, insofern sind die beiden Verteilungen so gut wie gleich. *) Anmerkung: u = Quantil der Standardnormalverteilung 88 Teil A: Statistische Methoden zur Messdatenauswertung 84 Fall 2: Bestimmung der Stichprobenumfänge für Identitätsvergleiche Zuvor sind Beobachtungsumfänge 2 1 n , n vorgegeben gewesen. Die umgekehrte Fragestellung lautet: Wie groß muss der Beobachtungsumfang n sein, um eine Abweichungen d einer bestimmten Messgröße zu einer angenommenen -Irrtumswahrscheinlichkeit feststellen zu können? Unter der vereinfachten Annahme, dass die betrachteten Beobachtungen 2 1 n n n also gleich groß sind, gilt für die Breite des beidseitigen Konfidenzintervalls (s. Gl. (7.2)) n s s u d 2 2 2 1 1 , (7.10) woraus die Mindestanzahl der notwendigen Beobachtungen folgt: 2 2 2 1 2 1 s s d u n . (7.11) Beispiel: Bei dem zuvor behandelten Problem sei festgelegt, dass eine Mittelwertabweichung von d = 0,005 A existiert. Wenn dies ebenfalls mit dem Niveau 1- / 2 (u 0,975 =1,96) festgestellt werden soll, muss die Anzahl der Beobachtungen bzw. Messgrößen mindestens 187 028 , 0 021 , 0 005 , 0 u n 2 2 2 975 , 0 sein, um Gleichheit feststellen zu können. Die hohe Anzahl der Prüflinge resultiert hier aus dem sehr schwachen Mittelwerteffekt. _______________________ Mathematische Herleitung zu Gl. (7.11): Zuordnung eines Streubereichs für eine Abweichung „d“: n s n s u x x I 2 2 2 1 1 d 2 1 2 , 1 Eingrenzung eines Konfidenzintervalls: 2 2 2 1 1 2 2 2 1 1 s s d u n s s n 1 u d min. Prüflos: 2 2 2 1 2 1 s s d u n 7 Multiple Messreihenanalyse 89 85 8 Korrelation und lineare Regression Mittels Korrelation und Regression können mögliche Zusammenhänge zwischen Daten untersucht werden. Während die Korrelation nur eine qualitative Aussage macht, kann mit der Regression ein weitestgehend exakter Zusammenhang (Erstellung einer Modellgleichung) hergestellt werden. 8.1 Korrelationsanalyse Die Korrelation untersucht den Grad des linearen Zusammenhangs zwischen zwei Zufallsvariablen. Oft besteht der Wunsch zu wissen, ob Variable und wie stark diese zusammenhängen. Hierbei muss zwischen den Begriffen Abhängigkeit und Korrelation unterschieden werden. Zwei Zufallsvariablen können unkorreliert (r = 0) und dennoch voneinander abhängig 2 x y sein, wenn beispielsweise ein nichtlinearer Zusammenhang besteht. Wenn im Folgenden vorausgesetzt wird, dass x und y normalverteilte Variablen sind und aus einer Stichprobe vom Umfang n stammen, so kann der vereinfachte Pearson-Ansatz herangezogen werden. Nach Pearson wird der empirische Korrelationskoeffizient „r“ als normierte Kovarianz bestimmt und als Beurteilungskriterium / FAHR 10/ genommen. Die Kovarianz einer Stichprobe aus n Wertepaaren i i y , x ist: n 1 i i i xy y y x x 1 n 1 s . (8.1) Allgemein bezeichnet man die Varianz auch als mittlere Abweichungsquadrate. Analog ist die Kovarianz das mittlere Abweichungsprodukt. Bei der Korrelation und Regression wird wieder zur Varianzberechnung die bekannte Zerlegung (aus Kap. 4.1) benutzt, die hier nur für die Variable i x angegeben sei 1 n SQ x n 1 x 1 n 1 s x n 1 i 2 n 1 i i 2 i 2 x . (8.2) x SQ stellt somit eine Abkürzung für die Summe der Abweichungsquadrate bezüglich x i dar. Entsprechend kann auch die Varianz der Ergebnisgröße i y 1 n SQ s y 2 y (8.3) gebildet werden. Die Berechnungsformel für die empirische Kovarianz lautet dementsprechend: 86 1 n SP y x n 1 y x 1 n 1 s xy n 1 i n 1 i i n 1 i i i i xy . (8.4) xy SP bezeichnet hier die Summe der Abweichungsprodukte bezüglich x i und y i . Während die Varianz eines Merkmals stets größer null ist, kann die Kovarianz positive oder negative Werte annehmen. Die Kovarianz selbst ist daher als Kenngröße ungeeignet. Durch Bezug auf die Standardabweichungen der Variablen entsteht hingegen eine geeignete dimensionslose Kenngröße, die als Korrelationskoeffizient (nach Bravais-Pearson) bezeichnet wird: y x xy y x xy xy SQ SQ SP s s s ) y , x ( Corr r . (8.5) Es zeigt sich, dass der Korrelationskoeffizient Werte zwischen -1 und +1 annehmen kann. Ist r > 0, so spricht man von einer positiven Korrelation; ist r < 0, so spricht man von einer negativen Korrelation; ist r = 0, dann besteht kein linearer Zusammenhang zwischen x und y, d. h., die Größen sind unkorreliert. Zur Einschätzung gilt: 50 , 0 r „schwache Korrelation“, 90 , 0 r 5 , 0 „mittlere Korrelation“, 90 , 0 r „starke Korrelation“. Bei Stichprobenwerten werden die Fälle r = 0, r = -1 und r = +1 nicht exakt erreicht. Der Fall 1 r würde bedeuten, dass die Punkte i i y , x genau auf einer Geraden liegen, es bestünde also ein streng linearer Zusammenhang zwischen x und y. In vielen Statistikprogrammen wird stattdessen der quadrierte Korrelationskoeffizient oder das gleichbedeutende Bestimmtheitsmaß B= 2 r ausgewiesen. Beispiel: Auf einer Zigarettenmaschine werden Tabakblätter zugeschnitten und verarbeitet. Zu Einstellzwecken ist von Interesse, ob zwischen der Breite x und der Länge y einer bestimmten Blattsorte ein Zusammenhang besteht. Um dies abzuklären, ist die folgende Stichprobe (n = 10) entnommen worden: 1 2 3 4 5 6 7 8 9 10 Blattbreite x (mm) 16 22 8 16 26 14 20 14 21 13 Blattlänge y (mm) 40 55 25 40 51 34 52 40 53 31 Wenn ein linearer Zusammenhang bestehen sollte, würde dies die Automatisierung der Schneidetechnik unterstützen, weil dann eine einfache Folgesteuerung mit hoher Verarbeitungsgeschwindigkeit realisiert werden könnte. 92 Teil A: Statistische Methoden zur Messdatenauswertung 87 Bild 8.1: Streudiagramme zur Bewertung der Korrelation zwischen Datensätzen ( i i y , x ) 8 Korrelation und lineare Regression 93 88 Für die schematische Bestimmung des Korrelationskoeffizienten r xy empfiehlt sich die folgende tabellarische Vorgehensweise: i i x i y 2 i x 2 i y i i y x 1 2 3 4 5 6 7 8 9 10 16 22 8 16 26 14 20 14 21 13 40 55 25 40 51 34 52 40 53 31 256 484 64 256 676 196 400 196 441 169 1.600 3.025 625 1.600 2.601 1.156 2.704 1.600 2.809 961 640 1.210 200 640 1.326 476 1.040 560 1.113 403 170 421 3.138 18.681 7.608 Somit können die benötigten Summenausdrücke sofort abgelesen werden: . 451 421 170 10 1 608 . 7 y x 10 1 y x SP , 9 , 956 421 10 1 681 . 18 y 10 1 y SQ , 248 170 10 1 138 . 3 x 10 1 x SQ 10 1 i 10 1 i i 10 1 i i i i xy 10 1 i 2 2 10 1 i i 2 i y 10 1 i 2 2 10 1 i i 2 i x Der Korrelationskoeffizient beträgt danach 926 , 0 9 , 956 248 451 SQ SQ SP ) y , x ( Corr r y x xy xy , d. h., es besteht ein weitestgehend linearer Zusammenhang, wie auch aus Bild 8.2 erkennbar ist. Der Idealwert ist bekanntlich 1 r xy , dann lägen die Punkte aber viel dichter zusammen. Das zugehörige Bestimmtheitsmaß ist dann: B = r xy2 = 0,86. 94 Teil A: Statistische Methoden zur Messdatenauswertung 89 10 15 x 55 50 45 40 35 30 25 20 25 30 y Bild 8.2: Graph zur Breiten-/ Längen-Korrelation mit 926 , 0 r xy , 86 , 0 r 2 xy 8.2 Lineare Regressionsanalyse Die Regression versucht einen Zusammenhang zwischen mehreren Variablen bzw. unabhängigen Einflussgrößen i x auf eine oder mehrere Zielgrößen i y „im Mittel" herzustellen. Letztendliches Ziel ist, einen formelmäßigen Zusammenhang darstellen zu können. Bezüglich des Vorgehens muss zwischen der eindimensionalen, zweidimensionalen und multiplen Regression unterschieden werden. Nachfolgend soll nur die eindimensionale Regression exemplarisch dargestellt werden, da diese anschaulich zu vermitteln ist. Hierfür bestehen die folgenden Modellannahmen: a) Es seien Paare i i y , x , i = 1, 2, ..., n (mit n > 2) von Messwerten gegeben. Die x i -Werte sollen nicht gleich sein. b) Zu jedem Wert i x gibt es eine normalverteilte Zufallsgröße i y , die der Bedingung *) i i 1 0 i e x b b y (8.6) genügt. Die Größen 1 0 b , b sind noch unbekannte Koeffizienten, und i e ist eine normalverteilte Fehlergröße mit dem Erwartungswert 0 e E i und der Varianz 2 i i s e Var . Die Fehlervarianz ist gewöhnlich unbekannt. c) Der Mittelwert bzw. Erwartungswert E(y i ) liegt auf einer Geraden, die als Regressionsgerade bezeichnet wird. *) Anmerkung: Zunächst soll von dieser linearen Gleichung ausgegangen werden; diese lässt sich einfach weiterentwickeln zu einer quadratischen Gleichung. 8 Korrelation und lineare Regression 95 90 d)Die Fehlergröße i e sei als Zufallsvariable unkorreliert. Trägt man nun die n-Paare i i y , x als Punkte i P in ein orthogonales Koordinatensystem ein, so erhält man ein so genanntes Streudiagramm oder Scatter Diagramm/ Scatter Plot. Wenn dieses Diagramm in etwa so aussieht wie im Bild 8.3, dann liegt die Vermutung eines linearen Zusammenhangs zwischen x, y nahe. x y i x i y x x x 1 1 1 y , x P i i i y , x P n n n y , x P 1 d 2 d 3 d i yˆ i y 1 r xy i 1 0 i x b b yˆ Bild 8.3: Streudiagramm zu Messdaten (Fenster: Abstände i d von der Regressionsgeraden) Aufgrund der Beobachtung kann die Modellgleichung (8.6) als zutreffend angenommen und so festgelegt werden, dass diese der Punktwolke angepasst wird. Man nutzt hierzu das Prinzip der kleinsten Abweichungsquadrate nach Gauß: n 1 i 2 i d Minimum! (8.7) Ein Punkt i i i y , x P hat von der Regressionsgeraden den vertikalen Abstand i 1 0 i i i i x b b y yˆ y d . (8.8) Die Summe 2 i n 1 i 2 i 1 0 i d ˆ x b b y Q (8.9) der Abstandsquadrate ist also eine Funktion von 0 b und 1 b . Damit die Funktion 1 0 b , b Q ein Minimum wird, müssen notwendigerweise die partiellen Ableitungen 0 b so- 1 b verschwinden (= 0 werden). Die beiden Bedingungen 96 Teil A: Statistische Methoden zur Messdatenauswertung 91 0 b Q 0 und 0 b Q 1 sind somit hinreichend für ein Minimum. Die beiden Ableitungen von Gl.(8.9) lauten: 0 ) 1 ( x b b y 2 b Q n 1 i i 1 0 i 0 (8.10) und 0 ) x ( x b b y 2 b Q n 1 i i i 1 0 i 1 . (8.11) Formt man diese beiden Gleichungen um, so kann das Normalgleichungssystem n 1 i n 1 i i 1 i 0 y b x b n , (8.12) n 1 i n 1 i n 1 i i i 1 2 i 0 i y x b x b x (8.13) erstellt werden. Aus der ersten Gleichung kann 0 b eliminiert werden: n 1 i n 1 i 1 1 i i 0 x b y b x n 1 y n 1 b (8.14) und aus der zweiten Gleichung 1 b . Dazu muss die erste Gleichung mit i x multipliziert werden und die zweite Gleichung mit n; danach werden die Gleichungen subtrahiert, es ergibt sich x xy n 1 i 2 n 1 i i 2 i n 1 i n 1 i i n 1 i i i i 1 SQ SP x n 1 x y x n 1 y x b (8.15) und manchmal wird auch 2 x xy 1 s s b (8.16) angegeben. 8 Korrelation und lineare Regression 97 92 Beispiel: Bei Prüfstandsversuchen zu einem neuen Nano-Härteverfahren werden bei n = 11 Verbrennungsmotoren nach unterschiedlichen Laufzeiten i t die Schichtdicken i y auf den Zylinderlaufflächen gemessen. Es wird ein linearer Zusammenhang zwischen den Parametern vermutet, für den aber eine Gleichung aufgestellt werden soll: i i x t (h) 80 90 110 90 110 130 90 110 130 70 150 m y i 56,2 55,7 75,5 55,7 68,4 67,7 63,3 58,3 80,8 52,1 87,3 Auch bei der Regression ist es zweckmäßig, das nachfolgende Schema zu nutzen. Um allgemeingültig zu bleiben, soll im Folgenden i i x t gesetzt werden. i i i x t i y 2 i 2 i x t 2 i y i i y x 1 2 3 4 5 6 7 8 9 10 11 80 90 110 90 110 130 90 110 130 70 150 56,2 55,7 75,5 55,7 68,4 67,7 63,3 58,3 80,8 52,1 87,3 6.400 8.100 12.100 8.100 12.100 16.900 8.100 12.100 16.900 4.900 22.500 3.158,44 3.102,49 5.700,25 3.102,49 4.678,56 4.583,29 4.006,89 3.398,89 6.528,64 2.714,41 7.621,29 4.496 5.013 8.305 5.013 7.524 8.801 5.697 6.413 10.504 3.647 13.095 1.160 721,0 128.200 48.595,64 78.508 Darüber hinaus können die folgenden statistischen Maßzahlen berechnet werden: 11 1 i 11 1 i 11 1 i i i i i xy 11 1 i 2 2 11 1 i i 2 i y 11 1 i 2 2 11 1 i i 2 i x 11 1 i i 11 1 i i . 30 , 475 . 2 11 721 160 . 1 508 . 78 y x 11 1 y x SP , 40 , 337 . 1 11 721 64 , 595 . 48 y 11 1 y SQ , 70 , 872 . 5 11 160 . 1 200 . 128 x 11 1 x SQ , m 50 , 65 11 721 y 11 1 y , h 50 , 105 11 160 . 1 x 11 1 t x 98 Teil A: Statistische Methoden zur Messdatenauswertung 93 Gemäß der vorherigen Herleitung folgt dann für den Regressionskoeffizienten 421 , 0 70 , 872 . 5 30 . 475 . 2 SQ SP b x xy 1 . Der Achsenabschnitt beträgt . 10 , 21 50 , 105 421 , 0 50 , 65 x b y b 1 0 Damit kann als Regressionsgleichung x 421 , 0 10 , 21 x b b yˆ 1 0 angegeben werden. Bei Kontrollrechnungen zeigt die Gleichung zwischen 3-12% Abweichung gegenüber den Messwerten auf. Nach der Herleitung stellt sich insgesamt die Frage nach der Qualität der Gleichung, d. h., erklärt sie den Zusammenhang genau genug? Um dies abzusichern, kann weiter wieder das bekannte Bestimmtheitsmaß herangezogen werden: 2 xy y x 2 xy r SQ SQ SP B . (8.17) Das Bestimmtheitsmaß ist zuvor schon als Quadrat des Korrelationskoeffizienten r xy hergeleitet worden. Wenn B = 1 oder 100 % ist, dann erklärt die Gleichung den Zusammenhang exakt. Mit der Tendenz gegen null wird die Übereinstimmung immer ungenauer. Beispiel: (Fortsetzung des vorhergegangenen Beispiels) Das Bestimmtheitsmaß beträgt % 78 78 , 0 40 , 337 . 1 70 , 872 . 5 30 , 475 . 2 SQ SQ SP B 2 y x 2 xy d. h., der Abtrag oder Verschleiß der Härteschicht kann leider nur unzureichend durch das gewählte Modell erklärt werden. Eine Ursache hierfür könnte die recht große Streuung in den Daten sein m 56 , 11 74 , 133 10 40 , 337 . 1 1 n SQ s y y . In diesem Fall sollten die Messwerte noch einmal / SIGG 14/ überprüft werden. 8 Korrelation und lineare Regression 99 94 9 Übersicht über statistische Methoden Die Schwerpunkte der vorausgegangenen Kapitel seien noch einmal kurz zusammengefasst. 95 102 Teil A: Statistische Methoden zur Messdatenauswertung 96 10 Literatur zu Teil A / BAUM18/ Baumgärtner, M.; et.al.: Agile Testing - Der agile Weg zur Qualität Hanser Verlag, münchen, 2. Auflage, 2018 / BERG 12/ Berger, M.: Test- und Prüfverfahren in der Elektronikfertigung VDE Verlag, Berlin Offenbach, 2012 / BÖRC 11/ Börcsök, J.: Funktionelle Sicherheit - Grundzüge sicherheitstechnischer Systeme VDE Verlag, Berlin Offenbach, 3. Auflage, 2011 / BUTT 02/ Buttler, G.; Fickel, N.: Statistik mit Stichproben Rowohlts Enzyklopädie, Reinbek, 2002 / CASP 07/ Caspary, W.; Wichmann, K.: Auswertung von Messdaten Oldenbourg Verlag, München Wien, 2007 / DAVI 54/ David, H. A.; Hartley, H. O.; Pearson, E. S.: The distribution of the ratio in a single normal sample, of range to standard deviation Biometrika, Vol. 41/ 1954, pp. 482-493 / DIN 00/ N. N.: Längenprüftechnik - Grundnormen Beuth Verlag, Berlin 2000 / DÜRR 17/ Dürr, W.; Meyer, H.: Wahrscheinlichkeitsrechnung und Schließende Statistik Hanser Verlag, München, 8. Auflage, 2017 / EDEN 11/ Eden, K.; Gebhard, H.: Dokumentation in der Mess- und Prüftechnik Vieweg-Teubner Verlag, Wiesbaden, 2011 / FISC 05/ Fischer, G.: Stochastik einmal anders Vieweg Verlag, Wiesbaden, 2005 / FAHR 10/ Fahrmeier, L.; et. al.: Statistik - Der Weg zur Datenanalyse Springer Verlag, Heidelberg, 7. Auflage, 2010 / GÖPE 04/ Göpel, H.: Design for Testability Design & Verification, September 2004 / GRUB 72/ Grubbs, F. E.; Beck, G.: Extension of sample sizes and percentage points for significance tests of outlying observation Technometrices, Vol. 14/ 1972, pp. 847-854 / HIPP 07/ Hippmann, H.-D.: Statistik Schäffer Poeschel Verlag, Stuttgart, 4. Auflage, 2007 1 Einleitung 103 97 / JOND 00/ Jondral, F.; Wiesler A.: Grundlagen der Wahrscheinlichkeitsrechnung und stochastische Prozesse für Ingenieure Teubner Verlag, Stuttgart Leipzig, 2000 / KNAP16/ Knapp, J.; et.al.: SPRINT - Wie man in nur 5 Tagen neue Ideen testet und Probleme löst / KREN 05/ Krengel, U.: Einführung in die Wahrscheinlichkeitstheorie und Statistik Vieweg Verlag, Wiesbaden, 8. Auflage, 2005 / KOCK 12/ Kückelkorn, U.: Statistik für Anwender Springer-Spektrum, Berlin, 2012 / LEHN 00/ Lehn, J.; Wegmann, H.: Einführung in die Statistik Teubner Verlag, Stuttgart Leipzig, 2000 / MEIE 11/ Meier, P.: Riskomanagement nach der internationalen Norm ISO 31000: 2009 Expert Verlag, Renningen, 2011 / PREC 05/ Precht, M.; Kraft, R.; Bachmaier, M.: Angewandte Statistik Oldenbourg Verlag, München Wien, 7. Auflage, 2005 / PREC 93/ Precht, M.; Kraft, R.: Bio-Statistik Oldenbourg Verlag, München Wien, 5. Auflage, 1993 / ROSS 14/ Ross,H.-L.: Funktionale Sicherheit im Automobil Hanser Verlag, München, 2014 / SIGG 14/ Sigg, T.: Statistik-Formeln für Dummies Wiley-VCH Verlag, Weinheim, 2014 / SACH 18/ Sachs, M.: Wahrscheinlichkeitsrechnung und Statistik Hanser Verlag, München, 5. Auflage, 2018 / STOL 07/ Stoll, L.; Mallok, C.: Die wichtigsten Design-for-Test-Regeln für elektronische Baugruppen / / / media/ INTENSO/ index.cfm.htm 104 Teil A: Statistische Methoden zur Messdatenauswertung 98 11 Übungen zu Teil A 99 1. Übung: Stichprobenauswertung und Schluss auf eine Großgesamtheit Angenommen seien Zeiten (t 1 , t 2 ) bis zum Ausfall von Systemen in Stunden. Aus der kleinen Stichprobe soll auf ein großes Jahreslos von produzierten Systemen geschlossen werden. Messwerte n t 1 [h] t 2 [h] 1 4,2 4,4 2 3,9 3,7 3 3,6 3,1 4 4,0 3,9 5 3,8 4,0 x 3,9 3,82 2 x s 0,05 0,224 x s 0,224 0,473 Voraussage einer GH aus k = 2 Stichproben a) Der Mittelwert der Mittelwerte konvergiert bei vielen Stichproben gegen 0 h 86 , 3 2 82 , 3 9 , 3 2 x x x 2 1 b)Varianzen bzw. Streuung der Messwerte n 1 i 2 i i 2 x ) x x ( 1 n 1 s i 05 , 0 ] ) 9 , 3 8 , 3 ( ) 9 , 3 0 , 4 ( ) 9 , 3 6 , 3 ( ) 9 , 3 9 , 3 ( ) 9 , 3 2 , 4 [( 4 1 s 2 2 2 2 2 2 x 1 224 , 0 s 1 x 224 , 0 ] ) 82 , 3 0 , 4 ( ) 82 , 3 7 , 3 ( ) 82 , 3 4 , 4 [( 4 1 s 2 2 2 2 x 2 473 , 0 s 2 x c) Der Schluss auf die Großgesamtheit mit k = 2 Stichproben benötigt die Streuung 414 , 1 697 , 0 414 , 1 473 , 0 224 , 0 k s s 2 1 x x 0 49 , 0 0 d) Z. B. können mit 95%iger Wahrscheinlichkeit die Intervallgrenzen für 0 bestimmt werden: 0 975 , 0 0 0 975 , 0 u x u x 49 , 0 96 , 1 86 , 3 49 , 0 96 , 1 86 , 3 0 . 82 , 4 90 , 2 0 106 Teil A: Statistische Methoden zur Messdatenauswertung 100 2. Übung: Bestimmung der Ausfallrate Im Umfeld des Qualitätsmanagements wird zur präventiven Einordnung der Qualitätskosten bzw. möglicher Kundenreklamationen als Messgröße die Ausfallrate benutzt. Diese ist definiert als ) t ( F 1 ) t ( f lichkeit wahrschein Überlebens hte Ausfalldic . In der Praxis erfolgt meist eine Abschätzung über die Ausfallquote q(t) t ) nai n ( n ai ( in FIT ). Diese ist bestimmt durch die Anzahl der Ausfälle in einer Klasse i, bezogen auf die zu diesem Zeitpunkt überlebenden Objekte. Die Angabe „x ppm“, die oft benutzt wird, ist mathematisch keine Ausfallrate. Zur Abschätzung der Ausfallrate soll ein kleines Zahlenbeispiel herangezogen werden: • Innerhalb einer Betriebszeit von einem Jahr fallen 7 von 500 Bauteilen aus, die Ausfallrate ist somit q(t) = h 760 . 8 493 7 1,62·10 -6 h -1 = 1.620 FIT Anm.: Verfügbarkeit 8.760 h= 365 Tage x 24 h, 1 FIT = 10 -9 h -1 . • Umgekehrt kann bei einer vorgegebenen Ausfallrate die zu erwartende Zahl von Ausfällen geschätzt werden. Müssen beispielsweise 2.000 Bauteile einen 1.200 Std.-Test absolvieren, so ist mit n a = n · t · q(t) = 2.000 ·1.200 h · 1.620·10 -9 h -1 = 4 Ausfällen zu rechnen. 11 Übungen zu Teil A 107 101 3. Übung: Exponential-Verteilung In einem Wechsellasttest werden Elektromagnete (mit 10 mA und 12 V) taktweise bestromt; im Durchschnitt fällt auf dem Prüfstand nach 2 Minuten ein Magnet aus. Wie groß ist die Wahrscheinlichkeit, dass unter den gegebenen Testbedingungen ein Magnet 4 Minuten überlebt? 108 Teil A: Statistische Methoden zur Messdatenauswertung 102 4. Übung: Weibull-Verteilung Die Lebensdauer eines elektro-mechanischen Hydraulikventils lässt sich durch die Weibull- Verteilung darstellen. Aus früheren Versuchen ist bekannt, dass die Ventile eine Ausfallsteilheit von 2 b und eine charakteristische Lebensdauer von 3 10 T Stunden aufweisen. Die Ventile sollen jetzt in eine Hebevorrichtung eingebaut werden. Der Kunde verlangt eine Angabe über die Überlebenswahrscheinlichkeit für 200 Stunden Betrieb. Mittlere Lebensdauer: Zusammenhang: Ausfallrate: 11 Übungen zu Teil A 109 103 5. Übung: Box-Plot Ein Box-Plot ist eine alternative Darstellung zu einer Verteilung und ermöglicht die Lage, die Mitte und die Streuung von Messwerten anzugeben. Grundsätzlich kann eine Verteilung ersatzweise charakterisiert werden, durch die Werte x n x 0,25 und x 0,75 (Interquartilabstand: IQR = x 0,75 - x 0,25 ) x Median x o Bei der zu konstruierenden Box entspricht somit: Nachfolgend sind zwei Messreihen dargestellt, die auf ihre Charakteristiken zu analysieren sind. Die Vorgehensweise zeigt die Datenauftragung und die begleitende Auswertung. Beispiel: 1. Messreihe 1. Messreihe, geordnet 2. Messreihe 2. Messreihe, geordnet 9,5 9,4 9,3 8,9 10,8 9,5 9,0 9,0 10,1 9,6 (xx) 9,2 9,1 (xx) 9,6 9,7 8,9 9,2 9,4 9,9 9,8 9,2 9,9 10,0 (x) 9,2 9,2 (x) 10,5 10,1 (x) 9,1 9,3 (x) 10,3 10,2 9,4 9,4 9,7 10,3 (xx) 9,2 9,6 (xx) 10,0 10,5 9,7 9,7 10,2 10,8 9,7 9,7 11,0 11,0 9,6 9,8 (x) Median: 10,05 9,25 Mittelwert: 10,08 9,34 (xx) 3 25 , 0 12 25 , 0 n x 0,25 = 9,6 x 0,25 = 9,1 (xx) 9 75 , 0 12 75 , 0 n x 0,75 = 10,3 x 0,75 = 9,6 IQR = x 0,75 - x 0,25 (Interquartilabstand) IQR=0,7 IQR=0,5 110 Teil A: Statistische Methoden zur Messdatenauswertung 104 Spannweitenberechnung für die Messwerte: 1. Messreihe 55 , 8 05 , 1 6 , 9 IQR 5 , 1 x x 25 , 0 u 35 , 11 05 , 1 3 , 10 IQR 5 , 1 x x 75 , 0 o 2. Messreihe 35 , 8 75 , 0 1 , 9 IQR 5 , 1 x x 25 , 0 u 35 , 10 75 , 0 6 , 9 IQR 5 , 1 x x 75 , 0 o Auswertung: 11,0 10,0 9,0 8,0 11,0 10,3 10,05 9,6 9,4 9,8 9,6 9,25 9,1 8,9 Messwerte 12,0 11,35 8,55 10,35 max x max x min x min x 1. Messreihe 2. Messreihe Box-Plots 8,35 Die Messreihen haben sehr verschobene Mediane, eine sehr unterschiedliche Streuung und auch andere Extremwerte. Hieraus kann geschlossen werden, dass die Messreihen zwar aus „ähnlichen“ Prozessen stammen, bei denen aber noch unbekannte Einflüsse zu Prozessabweichungen geführt haben. Weiterhin lässt sich feststellen, dass alle Messwerte innerhalb der Versteilungsspanne ( o max u min x x . bzw x x ) liegen, d. h., der vorliegenden Datensatz beinhaltet keine Ausreißer. Anmerkung: Zuvor sind Messreihen mit n = 12 Größen angenommen worden; die Ergebnisse 25 , 0 x n und 75 , 0 x n sind hier ganze Zahlen. Sind die Ergebnisse hingegen ungerade Zahlen, so ist zu „trunkieren“ (1 muss hinzu addiert werden). Zum Beispiel: ) x x ( 4 1 ) 5 (, 3 dann , 5 , 3 25 , 0 14 25 , 0 n 4 25 , 0 ) x x ( 11 1 ) 5 (, 10 dann , 5 , 10 75 , 0 14 75 , 0 n 11 75 , 0 11 Übungen zu Teil A 111 105 6. Übung: Graphische Aufbereitung von Messdaten In vielen Fällen, in denen Messwerte als Zickzack-Linie aufgetragen werden, lässt sich in der Regel keine gesicherte Tendenz ableiten, da ein derartiger Verlauf unrealistisch ist. Um aus der Auftragung überhaupt Erkenntnisse zu gewinnen, sollten die Messwerte ausgeglichen werden. Hierfür kann der gezeigte einfache Ausgleich der Messwerte genutzt werden. x 1 2 3 4 5 6 7 8 9 10 y 3,0 4,0 7,0 6,0 7,5 7,0 6,5 9,0 9,5 9,0 n i y Ansatz der einfachen Approximation: Es wird nicht der Messpunkt gewertet, sondern jeweils der Mittelwert aus den angrenzenden Messpunkten: . 1 n , , 3 , 2 i , 3 y y y y 1 i i 1 i i n Der Anfangs- und Endpunkt der Kurve müssen dem gemäß aus nur zwei Messpunkten gebildet werden: 1 i , 2 y y y 1 i i A , i . n i , 2 y y y i 1 i E , i Als Ergebnis erhält man eine geglättete Kurve, welche die Tendenz der Messung mit guter Genauigkeit wiedergibt. 112 Teil A: Statistische Methoden zur Messdatenauswertung 106 7. Übung: Test auf Normalverteilung nach David Bei den meisten technischen Versuchsproblemen fallen Zufallsvariablen x i an, welche vielen unkorrelierten Einflüssen unterliegen. In diesen Fällen ist es für eine weitere Auswertung wichtig, die Verteilung zu kennen, denen die Zufallsgrößen unterliegen. Gewöhnlich wird dies eine Normalverteilung sein, was aber nicht sicher ist. Zur Beantwortung dieser Fragestellungen gibt es mathematische Testverfahren, von denen das wohl einfachste der „Schnelltest nach David“ ist. Testverfahren Gegeben ist eine Messreihe aus x i (i=1-n) Werten, von denen der Mittelwert x und die Standardabweichung s bekannt seien. Die sogenannte Nullhypothese H 0 soll lauten: H 0 = Anhand der vorliegenden Daten ist keine Abweichung von der Normalverteilung vorhanden. 1. Schritt: Daten „min-max“ sortieren, 2. Schritt: Bestimmung der „Spannweite“ R= x max - x min (größter minus kleinster Wert), 3. Schritt: Berechnung der Größenzahl G = s R hung dardabweic tan S Spannweite 4. Schritt: Ablesen eines unteren Schrankenwerts G u und eines oberen Schrankenwerts G 0 in der David-Test-Tabelle. Auswertung • Gilt mit 90 % Sicherheit sowohl G u G als auch G G 0 , so ist die Nullhypothese (dass alle x i normalverteilt sind) anzunehmen, denn weniger als 90% Wahrscheinlichkeit sprechen gegen eine Normalverteilung. • Gilt mit 90 % Sicherheit eine der beiden Bedingungen G < G u oder G > G 0 und handelt es sich um eine größere Messreihe, so darf man immer noch annehmen, dass x i normalverteilt ist. Bei einer kleinen Messreihe sollte die Nullhypothese hingegen jetzt besser abgelehnt werden. • Gilt mit 95 % Sicherheit mindestens eine der Bedingungen G < G u oder G > G 0 , so ist die Nullhypothese „wahrscheinlich“ falsch. • Gilt mit 99 % Sicherheit mindestens eine der Bedingungen G < G u oder G > G 0 , so ist die Nullhypothese „signifikant“ falsch. • Gilt mit 99,9% Sicherheit mindestens eine der Bedingungen G < G u oder G > G 0 , so ist die Nullhypothese „hochsignifikant“ falsch. 11 Übungen zu Teil A 113 107 Tabelle von David für den Schnelltest auf NV n untere Schranke G u mit Sicherheit obere Schranke G 0 mit Sicherheit 99,9% 99% 95% 90% 90% 95% 99% 99,9% 3 1,732 1,737 1,758 1,782 1,997 1,999 2,000 2,000 4 1,732 1,87 1,98 2,04 2,409 2,429 2,445 2,449 5 1,826 2,02 2,15 2,22 2,712 2,753 2,803 2,828 6 1,826 2,15 2,28 2,37 2,949 3,012 3,095 3,162 7 1,871 2,26 2,40 2,49 3,143 3,222 3,338 3,464 8 1,871 2,35 2,50 2,59 3,308 3,399 3,543 3,742 9 1,897 2,44 2,59 2,68 3,449 3,552 3,720 4,000 10 1,897 2,51 2,67 2,76 3,57 3,685 3,875 4,243 11 1,915 2,58 2,47 2,48 3,68 3,80 4,012 4,472 12 1,915 2,64 2,80 2,90 3,78 3,91 4,134 4,690 13 1,927 2,70 2,86 2,96 3,87 4,00 4,244 4,899 14 1,972 2,75 2,92 3,02 3,95 4,09 4,34 5,099 15 1,936 2,80 2,97 3,07 4,02 4,17 4,44 5,292 16 1,936 2,84 3,01 3,12 4,09 4,24 4,52 5,477 17 1,944 2,88 3,06 3,17 4,15 4,31 4,60 5,657 18 1,944 2,92 3,10 3,21 4,21 4,37 4,67 5,831 19 1,949 2,96 3,14 3,25 4,27 4,43 4,74 6,000 20 1,949 2,99 3,18 3,29 4,32 4,49 4,80 6,164 25 1,961 3,15 3,34 3,45 4,53 4,71 5,06 6,93 30 1,966 3,27 3,47 3,59 4,70 4,89 5,26 7,62 40 1,975 3,47 3,67 3,79 4,96 5,16 5,56 8,83 45 1,978 3,55 3,75 3,88 5,06 5,26 5,67 9,38 50 1,980 3,62 3,83 3,95 5,14 5,35 5,77 9,90 60 1,983 3,75 3,96 4,08 5,29 5,51 5,94 10,86 70 1,986 3,85 4,06 4,19 5,41 5,63 6,07 11,75 80 1,987 3,94 4,16 4,28 5,51 5,73 6,18 12,57 90 1,989 4,02 4,24 4,36 5,60 5,82 6,27 13,34 100 1,990 4,10 4,31 4,44 5,68 5,90 6,36 14,07 Anm.: Die Tabelle erfasst die NV im Bereich ± 3 s (Quelle: Institut für Mathematik, Universität Marburg) 114 Teil A: Statistische Methoden zur Messdatenauswertung 108 Anwendung des David-Test In einer Lebensdauerprüfung an einem Verstellmechanismus zur Einstellung von Fahrzeugsitzen sind die folgenden Zufallsdaten erfasst worden. Als Schaden ist jeweils blockieren des Mechanismus nach übergroßem Verschleiß festgestellt worden. Es stellt sich für die weitere Auswertung die Frage, ob die Messgrößen normalverteilt sind. Lfd.Nr. Ausfälle x i [LW] Auswertung 12345678 57.500 68.000 70.000 81.000 82.000 87.000 90.000 105.000 062 . 80 x LW s = 39.105 LW Auswertung: R = = LW G = s R = = 1,2147 Test auf 90 % für n=8 mit G u = 2,59 und G 0 = 3,308: G = 1,2147 < G u = 2,59 Aussage: Die Messreihe ist vom Umfang her zu klein, um mit 90 % Sicherheit zu behaupten, dass es sich um eine Normalverteilung handelt. Test auf 99,9 % für n=8 mit G u = 1,87 und G 0 = 3,742: G = 1,2147 < G u = 1,87 Mit 99,9 % Sicherheit liegt keine Normalverteilung vor. 11 Übungen zu Teil A 115 109 12 Statistik-Tabellen 110 118 Teil A: Statistische Methoden zur Messdatenauswertung 111 12 Statistik-Tabellen 119 112 120 Teil A: Statistische Methoden zur Messdatenauswertung 113 12 Statistik-Tabellen 121 114 122 Teil A: Statistische Methoden zur Messdatenauswertung 115 12 Statistik-Tabellen 123 116 124 Teil A: Statistische Methoden zur Messdatenauswertung 117 12 Statistik-Tabellen 125 118 126 Teil A: Statistische Methoden zur Messdatenauswertung 119 12 Statistik-Tabellen 127 120 128 Teil A: Statistische Methoden zur Messdatenauswertung 121 12 Statistik-Tabellen 129 122 130 Teil A: Statistische Methoden zur Messdatenauswertung Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 123 13 Lebensdauersimulation von Komponenten, Bau- gruppen und Systemen 13.1 Problemumfeld In der Käufererwartung haben die Produktzuverlässigkeit, Produktlebensdauer und die Entsprechung einen hohen Stellenwert. Insbesondere wird mit Entsprechung die Erfüllung aller Kundenvorstellungen an Design, Funktionalität, Technik und Wirtschaftlichkeit (Strukturintegrität) bezeichnet. In der Regel wird ein Käufer unzufrieden sein, wenn die Funktionalität eines Produktes unzuverlässig ist, wenn frühzeitige Reparaturen anfallen und mit der weiteren Nutzung eines Produktes ungeplante Kosten verbunden sind. Dies hat natürlich auch negative Rückwirkungen für den Hersteller, dessen Gewinn durch Garantieleistungen oder Kulanz geschmälert wird. Dieses Szenario unterstreicht, dass die Produktlebensdauer und die Produktzuverlässigkeit aus Kundensicht die wichtigsten Auslegungskriterien / BRUN 92/ darstellen. Ein Ingenieur sollte daher die Prinzipien und Methoden zur Entwicklung „robuster Produkte“ sicher beherrschen und die Maßnahmen einleiten können, damit letztlich den Markt fehlerfreie, langlebige und zuverlässige Produkte erreichen. In den folgenden Kapiteln soll den aufgeworfenen Fragen am Beispiel eines Automobils nachgegangen werden. Dies hat den Vorteil, dass das Obersystem „Auto“, seine Subbzw. Untersysteme „Motor“ oder „Getriebe“, die Baugruppen und die vielen zusammenwirkenden Komponenten weitgehend zum Alltagswissen gezählt werden können: Eine Übertragung auf Fertigungsmaschinen ist ohne Weiteres möglich. 13.2 Eingrenzung von Lebensdauer und Zuverlässigkeit Technische Produkte werden gewöhnlich für eine längere Nutzungszeit ausgelegt. Jedes Produkt(system) wird aber irgendwann ausfallen. Für Kunden ist es jedoch wichtig, dass über einen möglichst langen Nutzungszeitraum eine hohe Zuverlässigkeit (d. h. Verfügbarkeit) vorliegt. Das Ausfallverhalten ist für die meisten technischen Produkte charakteristisch und lässt sich als Früh-, Zufalls- oder Verschleißausfall vorhersagen. Frühausfälle sind gewöhnlich Problemausfälle (Werkstoff- oder Montagefehler). Zufallsausfälle beobachtet man hingegen bei Überlastungsproblemen in der Statik. Beispiele hierfür stellen Zugversuche da. Ebenso wird man bei elektrischen und elektronischen Systemen überwiegend zufälliges Versagen beobachten können. Systemstrukturen bestehen aus: - (Ober-)System: Auto/ Fahrzeug - Untersysteme: Motor, Getriebe, Elektrik/ Elektronik etc. - Baugruppen: Turbolader, ABS, Bremsassistent etc. - Komponenten: Sensoren, Ventile, Stecker etc. 124 Eine andere Kategorie stellen Verschleiß- oder Ermüdungsausfälle dar. Dazu muss ein Mechanismus wie Reibung, Überrollung oder elastoplastisches Fließen vorliegen. Versagen wird dann in der Form von Dauerbrüchen, Abplatzungen oder Zerrüttung auftreten. Ziel ist es, die verschiedenen Ausfälle mathematisch (durch Funktionen, Kenngrößen) zu beschreiben. Aus dem folgenden Bild 13.1 wird deutlich, wie die erforderliche Datenaufbereitung aus einem beispielhaften Experiment mit n=12 Prüflingen erfolgen kann. Bild 13.1: Erfassung und Auswertung eines Lebensdauerversuchs a) Erfassung der Ausfallzeiten (Auftragung und Klassierung) b) geordnete Ausfallzeiten (Verdichtung) c) Histogramm der Ausfallhäufigkeiten mit empirischer Dichtefunktion Welche Erkenntnisse lassen sich aus dieser Darstellung gewinnen? Zunächst ist ersichtlich, dass die Ausfallzeiten in einem weiten Bereich streuen und sich in einem engen Bereich häufen. 134 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 125 Um dies grafisch transparent zu machen, kann eine „Daten-Verdichtung“ und weiter ein „Histogramm“ benutzt werden. Die häufigste Darstellung ist das Histogramm, welches letztlich in eine Häufigkeitsdichte übergeht. Dazu müssen Klassen für Ausfälle mit gleicher Häufigkeit gebildet werden. In der vorstehenden Darstellung ist die Abszisse (Zeitachse, Lastwechsel etc.) in Klassen eingeteilt worden. Bei diesem Vorgang gehen jedoch Informationen verloren, da differente Werte einer einzigen Klasse zugeordnet werden. Diesem Verlust an Informationen steht aber ein Gewinn an Anschaulichkeit gegenüber. Wichtig ist, die Klassenbreite so zu wählen, dass der Informationsverlust nicht zu groß wird. In der Praxis haben sich im Wesentlichen zwei Ansätze zur Klassenbreitenwahl bewährt: a) Anzahl der Klassen: Klassenbreite: 4 46 , 3 12 n k , für n 100 (13.1) w = R/ k oder b) Teilung nach Sturges Anzahl der Klassen: 5 58 , 4 ) n log( 32 , 3 1 k (13.2) Die eingehende Spannweite R= n LW,max -n LW,min ist gleich der Differenz aus dem größten und kleinsten Messwert, die es in Klassen aufzulösen gilt. Bild 13.2: Abgeleitete, kontinuierliche Ausfallsummenfunktion Zur realen Dichtefunktion kommt man, wenn die Anzahl der Ausfälle aufaddiert werden. Mit dem Grenzübergang n wird letztlich das exakte Ausfallverhalten erfasst sein. Auswertungen auf der Basis von wenigen Messwerten werden immer nur empirische Dichtefunktionen ergeben, die mehr oder weniger abweichen. Im Bild 13.2 ist eine Dichtefunktion wiedergegeben, die aus der Auswertung eines größeren Versuchsloses resultiert. 13 Lebensdauersimulation von Komponenten, Baugruppen und Systemen 135 126 13.3 Statistische Datenaufbereitung Die empirisch ermittelten Daten müssen für die Praxis so aufbereitet werden, dass richtige Schlüsse gezogen werden können. Hierzu bietet die Statistik als grafische Hilfsmittel jeweils die Summenhäufigkeit der Ausfälle oder des Überlebens an. Die Summenhäufigkeit ergibt sich, in dem die beobachteten Ausfälle mit fortlaufender Intervallzahl aufaddiert und bezogen werden: m 1 i i rel Ausfälle der hl Gesamtanza i Klasse einer in Ausfälle ) i ( h ) m ( H . (13.3) Als mathematische Auswertung bzw. als funktionelle Darstellung für n ergibt dies die in dem Bild 13.3 entwickelte Ausfallsummenhäufigkeit (F(t)=Failure): t 0 dt ) t ( f ) t ( F . (13.4) Bild 13.3: Angenäherte Summenhäufigkeit F(t) mit Verteilungsfunktion a) Häufigkeiten als Histogramm b) Ausfallsummenhäufigkeits-Histogramm als empirische Ausfallfunktion 136 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 127 Die Verteilungsfunktion beginnt immer bei F(t) = 0 und wächst monoton an, da zu jedem Zeitpunkt ein positiver Wert aufaddiert wird. Der Endpunkt ist F(t) = 1 oder 100 %, d. h., alle Teile sind ausgefallen. Außer dem Ausfallverhalten interessiert vielfach auch die Überlebenswahrscheinlichkeit (Summe der noch intakten Bauteile). Das entsprechende Histogramm ergibt sich, wenn von der Gesamtanzahl der Bauteile die Summe der bereits ausgefallenen Einheiten abgezogen wird. Im Bild 13.4 ist die Überlebenssummenhäufigkeit bzw. die empirische Überlebenswahrscheinlichkeit (R(t)= Reliability) dargestellt. Bild 13.4: Überlebenssummenhäufigkeit R(t) mit Verteilungsfunktion Die Überlebenswahrscheinlichkeit beginnt stets bei R(t) = 100 %, da bei t = 0 noch keine Ausfälle aufgetreten sind. Die Funktion R(t) fällt dann monoton ab und endet bei R(t) = 0 %, wenn alle Einheiten ausgefallen sind. Es ist insofern schon trivial festzustellen, dass die Summe der Ausfälle und die Summe der noch intakten Einheiten zu einem Zeitpunkt t bzw. in einer Klasse i stets 100 % ergeben, d. h. es gilt R(t) + F(t) = 1 bzw. 100 % oder F(t) = 1 - R(t). (13.5) Dieser Zusammenhang kann auch mit der Dichtefunktion (siehe Bild 13.5) vermittelt werden, welche die Ableitung der Verteilungsfunktion nach der Zeit ist: dt ) t ( dR dt ) t ( dF ) t ( f . (13.6) 13 Lebensdauersimulation von Komponenten, Baugruppen und Systemen 137 128 Bild 13.5: Überlebenswahrscheinlichkeit R(t) als Komplement zur Ausfallwahrscheinlichkeit F(t) zu einem bestimmten Zeitpunkt Weiter lässt sich das Ausfallverhalten auch mit der Ausfallrate ) t ( beschreiben. Diese bezieht die Ausfälle n a zu einer Zeit t in einer Klasse i auf die Summe der noch intakten Einheiten ü n aus einer Stichprobe vom Umfang n: ai ai üi ai n n n n n Einheiten intakten noch der Summe Ausfälle ) ti ( . (13.7) Für die Versuchsreihe von Bild 13.1 (mit n = 12 Prüflingen) sei im folgenden Bild 13.6 das Histogramm der Ausfallrate und der entsprechende empirische Verlauf wiedergegeben. Anzumerken ist, dass die Ausfallrate in der letzten Klasse zwangsläufig gegen strebt, da dann keine intakten Einheiten mehr vorhanden sind und damit der Nenner zu null wird. Meist wird die Ausfallrate nach der folgenden Formel bestimmt: t n n ) t ( a . (13.8) Bild 13.6: Histogramm der Ausfallrate und der empirischen Ausfallrate 138 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 129 Mit der Ausfallrate lassen sich einzelne Lebensphasen oder das gesamte Ausfallverhalten über mehrere Phasen (Badewannenkurve) von Einheiten beschreiben. 13.4 Zuverlässigkeitskenngrößen Außer durch statistische Maßzahlen werden in der Lebensdauer- und Zuverlässigkeitstheorie noch einige spezielle Kenngrößen (s. auch Bild 13.7) zur Beschreibung des Verhaltens von Einheiten benutzt. Dies sind in der Hauptsache: MTTF (Mean Time To Failure) Angabe bei nicht reparierbaren Einheiten; Mittelwert der ausfallfreien Zeit von Einheiten im Nutzungsumfeld. Schätzwert: n / t t t MTTF n 2 1 , entspricht hier dem arithmetischen Mittelwert m t der Nutzungszeiten. MTTFF (Mean Time To First Failure) Angabe bei reparierbaren Einheiten; Lebensdauer bis zum ersten Ausfall Die weitere Quantifizierung nach dem ersten Ausfall erfolgt mit MTBF (Mean Time Between Failure). Dies ist die Lebensdauer bis zum nächsten Ausfall. Bild 13.7: Interpretation der Zuverlässigkeitskenngrößen bei einem Nfz Ausfallquote q Im Fahrzeugbau arbeitet man bevorzugt mit der Ausfallquote q, die ein einfacher erfassbarer Ersatzwert für die Ausfallrate darstellt: t n a n röße Intervallg tand Anfangsbes all Zeitinterv im Ausfälle t q ) ( . (13.9) 13 Lebensdauersimulation von Komponenten, Baugruppen und Systemen 139 130 Fallen beispielsweise 5 Einheiten aus einem Anfangsbestand von 100 Einheiten innerhalb einer Stunde aus, so beträgt die Ausfallquote q = 0,05 1/ h (d. h. 5 % pro Stunde). x x x L , N , B -Lebensdauer *) In verschiedenen Regelwerken werden x x N , B - oder x L -Lebensdauerwerte (s. Bild 13.8) definiert bzw. können gefordert werden. Der Index x steht hierbei für den Anteil x %, der bis zu dem angegebenen Zeitraum ausgefallenen Einheiten. Beispielsweise werden im Automobilbau 10 5 B , B bzw. 50 B -Lebensdauerwerte (z. B. VDA, Bd. 3: Zuverlässigkeitssicherung im Automobilbau) als Maß für die Zuverlässigkeit herangezogen. Bild 13.8: Verlauf von q B - Lebensdauern Im Maschinenbau benutzt man hingegen x N [LW]- oder x L [Std.]-Lebensdauern mit x = 10, 50 und 90 % als Vertrauensgrenze (beispielsweise 10 N , heißt, 10 % der Bauteile erreichen diese Lebensdauer im Durchschnitt nicht). 13.5 Komponenten- und Systemlebensdauer Die vorstehenden Ausführungen sind so allgemein gehalten worden, dass sie zur universellen Beschreibung des Versagensverhaltens herangezogen werden können. Hierbei bestehen auch keine Unterschiede zwischen mechanischen, hydraulisch/ pneumatischen, mechatronischen und elektrischen/ elektronischen Einheiten / ROSS 14/ . Weitere Abgrenzungen sollen jetzt mit Hilfe von Bild 13.9 beispielhaft vorgenommen werden, und zwar gemäß des Prinzips von „außen“ nach „innen“. Demnach gilt es, alle kritischen Systeme, Baugruppen und Komponenten zu identifizieren. Je nach Systemaufbau versagt ein System gewöhnlich, wenn eine oder mehrere Komponenten versagen. *) Anmerkung: Mit der B 5 -Lebensdauer wird gewöhnlich im Lkw-Bau und mit der unsicheren 10 B -Lebensdauer im Pkw-Bau kalkuliert. 140 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 131 Bild 13.9: Analyseverfahren zur Lebensdauer- und Zuverlässigkeitsbestimmung an Komponenten und Untersystemen 13 Lebensdauersimulation von Komponenten, Baugruppen und Systemen 141 132 Gewöhnlich nutzt ein Kunde „Systeme“ und stellt entsprechende Anforderungen an die Lebensdauer und Zuverlässigkeit dieses Systems. Ein System (z. B. Obersystem „Auto“) besteht aber regelmäßig aus verschiedenen Untersystemen (z. B. Getriebe), Baugruppen (z. B. Gelenkwelle) und Komponenten (z. B. Mantelrohr). Hieraus folgt, dass das System nur so stark ist wie sein schwächstes Glied. Insofern muss der Fokus auf eine gestufte Abstimmung aller zusammenwirkenden Objekte / LÖW 10/ gelegt werden. Transparent wird das Ausfallbzw. Überlebensverhalten, wenn das System in eine Boole’sche Struktur / LECH 79/ überführt ist. Zufolge der Komponentenschaltung sind dann Simulationsrechnungen möglich, mit dem Ziel, die funktionale Zuverlässigkeit (ISO 26262) zu verbessern. Analytische Hilfstechniken hierzu sind: Die FTA (Fault Tree Analysis = Fehlerbaumanalyse) nach DIN 25424 ist eine „strukturierte Vorgehensweise zur Feststellung der internen und externen Ursachen, die alleine oder in Kombination zu Fehlzuständen“ führen. F(t) und R(t) lassen sich quantifizieren. Die FMEA (Failure Mode and Effects Analysis = Fehler-Möglichkeits- und -Einfluss- Analyse) nach DIN EN 60812 bzw. VDA 4,T. 2 ist „eine systematische Methode, die für Systeme/ Baugruppen/ Komponenten alle denkbaren Ausfallarten ermitteln kann. Gleichzeitig werden die möglichen Ausfallfolgen und Ausfallursachen aufgezeigt. Eine gewichtete Bewertung des Risikos und die Festlegung von Verbesserungsmaßnahmen“ schließen die Zuverlässigkeitsoptimierung ab. Diese Betrachtungen reichen aber oftmals nicht aus, sondern es werden in der Praxis weitere Quantifizierungen gefordert. Hierzu haben sich im Wesentlichen die folgenden beiden Ansätze bewährt: Lebensdauerabschätzung mittels Schadensakkumulationsverfahren (Palmgren/ Miner, Haibach, Corten-Dolan etc.), die Versagen (LW) infolge von Ermüdungsbrüchen quantifizieren können. Durch eine arbeitsmechanische Akkumulation wird die äußere Belastung (Kollektiv) mit der Beanspruchbarkeit (Wöhlerlinie) verglichen. Anwendung erfolgt bei Komponenten (Simulation, Versuche) mit zufälligem Ausfallverhalten (Normalverteilung). Lebensdauer- und Zuverlässigkeitsabschätzung mittels Weibull-Analyse zur Nachbildung systematischer und zufälliger Ausfälle von Baugruppen und Systemen bei unterschiedlichen Versagensmechanismen, einschließlich dissipativer Reibung). Die aufgeführten Ansätze haben sich im Anwendungsfeld „Mechanik und Mechatronik“ bewährt und zeigen im Allgemeinen praktisch brauchbare Ergebnisse. Elektronische Bauteile, Schaltungen bzw. Geräte zeigen hingegen nach einer kurzen Frühausfallzeit einen längeren Übergang in den Zufallsbereich. Oftmals spielen hier auch Alterung oder Temperatureinflüsse (s. Arrhenius-Modell) eine Rolle. In weiten Bereichen kann dies durch eine konstante Ausfallrate charakterisiert werden, was sich gut durch eine Exponentialverteilung abbilden lässt. 142 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 133 13.6 Zuverlässigkeitssteigerung durch Wartung Bei anfälligen Systemen kann eine akzeptable Zuverlässigkeit nur sichergestellt werden, wenn eine regelmäßige Wartung durchgeführt wird. Ein einsichtiges Beispiel hierfür ist ein Pkw, welcher aus einer Vielzahl von verschleißbehafteten Systemen, Subsystemen und Komponenten besteht. Es kann als bekannt vorausgesetzt werden, dass Pkws, die regelmäßig gewartet werden, zuverlässiger sind als Pkws, die ungewartet betrieben werden. Die Theorie der Wartung / BIRO 91/ unterstellt einen periodischen Service zur Kontrolle des Funktionszustandes, zur Entdeckung möglicher Ausfallquellen sowie zur Vermeidung fortschreitender Verschleißausfälle. Im Sinne einer Kosten-Nutzen-Betrachtung ist von Interesse zu quantifizieren, wie sich eine Wartung auf die Zuverlässigkeit eines Systems auswirkt. Um einen einfachen Zusammenhang angeben zu können, ist es sinnvoll, einige Annahmen zu treffen, und zwar: Die Dauer der Wartung ist vernachlässigbar, nach der Wartung ist das System als neuwertig anzusehen, die Wartung erfolgt periodisch mit konstanten Wartungsintervallen W t . Weiterhin soll das Ausfallverhalten vor und nach der Wartung unabhängig voneinander sein. Der Ausfall der Wartungseinheit „Pkw“ soll zum Zeitpunkt t (hier Laufleistung) erfolgen. Vor dem Ausfall seien k Wartungen durchgeführt worden, welche einem Anteil von W t / t entsprechen soll. Für die Zuverlässigkeit einer gewarteten Betrachtungseinheit ergibt sich somit W W k W t k t R t R ) t ( R . (13.10) Bild 13.10: Verlauf der Überlebenswahrscheinlichkeit für das Gesamtsystem „Pkw“ Im vorstehenden Bild 13.10 ist der Verlauf der empirischen Überlebenswahrscheinlichkeit eines Pkws nachskizziert worden. 13 Lebensdauersimulation von Komponenten, Baugruppen und Systemen 143 134 Zur Auswertung der vorstehenden Formel kann abgelesen werden, dass die Zuverlässigkeit R (130.000 km) = 0,48 beträgt, d. h., durchschnittlich überleben von 100 Pkws des analysierten Typs nur 48 Fahrzeuge die angegebene Laufleistung von 130.000 km. Werden hingegen die Fahrzeuge alle 25.000 km regelmäßig gewartet, d. h. 5 000 . 25 000 . 130 k Wartungen durchgeführt, so ergibt sich eine Überlebenswahrscheinlichkeit von . 89 , 0 99 , 0 90 , 0 99 , 0 98 , 0 km 000 . 25 5 km 000 . 130 R km 000 . 25 R km 000 . 130 R 5 5 W Hieraus folgt, dass jetzt 89 % der Fahrzeuge die Laufleistung mindestens erreichen. Damit ist ausgewiesen, dass ein Kollektiv gewarteter Fahrzeuge eine deutlich höhere Überlebenswahrscheinlichkeit aufweist und auch das einzelne Fahrzeug zuverlässiger ist. Die meisten OEMs (Erstausrüster = Original Equipment Manufacturer) legen großen Wert auf Wartung und Instandsetzung, um kein „Liegenbleiberimage“ zu bekommen: Hiermit sind oft Vorgaben durch Wartungskenngrößen verbunden, wie: MTTR = meantime to repair (mittlere Reparaturdauer), MTBM = meantime between maintainance (mittlerer Wartungsabstand), die heute im Rahmen einer Fahrzeugentwicklung als Zielwerte vorgegeben werden. 144 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 135 14 Lebensdauersimulation 14.1 Problembereich Die Lebensdauersimulation dient der Vorhersage der Nutzungszeit einer Komponente bis zum Ausfall. Damit lassen sich also Systeme aus einer Vielzahl von Komponenten robust gegenüber auftretenden Betriebslasten auslegen. Der Fokus ist hierbei auf eine Schwachstelle bzw. nacheinander auf alle Schwachstellen einer Komponente zu legen. Mittels Anwendung von Schadensakkumulationsansätzen können Schwachstellen bewertet und nacheinander angeglichen werden. Die Schadensakkumulationsansätze sind allerdings begrenzt auf „Ermüdungsbrüche" und den sofortigen Bruch, der das Ende der Lebensdauer / COTT 92/ markiert. Dieses Verhalten ist tatsächlich nur an Proben mit geringen Querschnittsabmessungen zu beobachten. Im praktischen Umfeld liegen meist dickere Querschnitte vor, sodass das Versagen immer aus Rissbildung, Risswachstum und Trennbruch bestehen wird. Wendet man also die Schadensakkumulationstheorie auf derartige Situationen an, so ist die Gesamtlebensdauer nicht erfasst worden, sondern nur die Zeit von der ersten Beanspruchung bis zum so genannten „technischen Anriss“. Die Definition „technischer Anriss“ geht davon aus, dass Risse ab ca. 1 mm Länge versagensrelevant sind bzw. deren Wachstum das Ende der Lebensdauer darstellen. Diese Vorstellung ist jedoch nicht im Einklang mit Versuchen. Bauteilversuche mit verschiedenen Materialien und unter verschiedenen Lastverläufen haben gezeigt, dass die Schadensakkumulation etwa 70-80 % der Lebensdauer erfasst und die Restlebensdauer bis zur Materialtrennung 20-30 % umfasst. Wie im Bild 14.1 zusammenfassend dargestellt, ergibt sich die Gesamtlebensdauer aus der linearen Addition von zwei Lebensdauerperioden, die mit entsprechenden Ansätzen ermittelt werden können. Oder als Prognose: N ges 1,2 N SA . 70-80 % 20-30 % Schadensakkumulation Palmgren/ Miner, Haibach Manson Risswachstum Paris/ Erdogan Forman Gesamtlebensdauer: BM SA ges N N N (= Anriss + Rissbruch) DIN 40041: Lebensdauer ist die Betriebszeit einer nicht reparierbaren Einheit bis zum Ausfall durch Bruch. Bild 14.1: Lebensdauersegmente und Überlagerung zur Gesamtlebensdauer Anriss! Bruch! 0 % 100 % 136 14.2 Genauigkeit der Berechnung Die Schadensakkumulationsrechnungen (SAH) und die bruchmechanischen Berechnungen weisen in der Anwendung eine große Streubreite / HANS 10/ zu vergleichenden Bestätigungsversuchen auf. Hierfür ist eine Vielzahl von Ursachen (Belastung, Geometrie, Werkstoff) verantwortlich, weil diese weitgehend nur statistisch oder ideal erfasst werden können. Im Bild 14.2 ist eine Übersicht über die Haupteinflüsse und die wirkenden Abhängigkeiten auf die Anrisslebensdauer eines Bauteils wiedergeben. Die Stärke dieser Abhängigkeiten auf die Lebensdauer ist dabei sehr unterschiedlich zu bewerten: Gut quantifizierbar sind die Beanspruchungshöhe und die Last-Zeit-Funktion, die Geometrie und die Kerbwirkung, der Oberflächeneinfluss und die zulässige Beanspruchung. Schwer quantifizierbar sind die Bauteilgestalt (Stützwirkungen), die Fertigung, die Verfestigungswirkung und die Einflüsse aus der Temperatur und Korrosion. Gar nicht quantifizierbar sind die Einflüsse aus inneren Fehlern (Art und Größe) sowie den eingeschlossenen Eigenspannungen. äußere Belastung Bauteil Werkstoff Umgebung Belastungskollektiv ertragbare Beanspruchung (Wöhlerlinie) Lebensdauersimulation mit SAH Vordimensionierung Gestaltoptimierung Krafteinleitung Bild 14.2: Lebensdauersimulation bzw. -abschätzung mit Schadensakkumulationshypothesen Beanspruchungshöhe Beanspruchungs- Zeit-Funktion Gestalt Geometrie, Kerben Fertigung Oberfläche Eigenspannung zulässige Beanspruchung innere Fehler Verfestigung Temperatur Korrosion 146 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 137 Unter Berücksichtigung der somit wahrscheinlichen und unkontrollierbaren Auswirkungen kann man von einer Lebensdauerrechnung nicht absolute Exaktheit erwarten. Lebensdauerwerte sollte man insofern nur als Schrankenwerte begreifen, die der Absicherung von Zielvorgaben dienen. Diese Feststellung gilt zunächst einmal für lineare Akkumulationsansätze (z. B. nach Palmgren/ Miner), die naturgemäß einen weiten Streubereich aufweisen. In der Auswertung von 650 Lebensdauerversuchen an Proben und Bauteilen wurde in 25 % der Fälle die Anrisslebensdauer richtig vorhergesagt. Darüber hinaus streuten die Abweichungen um 20 % gegenüber den Versuchswerten / SIEM 06/ . Mittels der Anwendung von nichtlinearen Akkumulationsansätzen konnte die Vorhersagegenauigkeit um beachtliche Prozentpunkte verbessert werden. Beispielsweise lag die Treffergenauigkeit bei dem bekannten Manson-Ansatz bei etwa 48 % aller Fälle. Die vorstehende Feststellung gilt so auch für das Restfestigkeitsproblem, also für Risswachstum. Risse können in Bauteilen vielfältige Geometrien haben, die in der Regel nicht bestimmbar sind. Die Ausbildung einer Rissgeometrie ist somit ein Zufallsereignis, das nur angenähert erfasst werden kann. In der Bruchmechanik müssen aber Standardgeometrien zugrunde gelegt werden, die mathematisch beschreibbar sind und deren Ergebnisauswertung (erforderliche Lastwechsel bis zum Rissbruch) ebenfalls nur als unterer Schrankenwert (Mindestlebensdauer) zu bewerten ist. 14.3 Äußere Belastung In der technischen Mechanik bzw. Festigkeitslehre werden überwiegend konstante oder sinusförmige Belastungen abgehandelt. Dies entspricht aber nicht der Realität im Maschinen- und Fahrzeugbau, da hier eindeutig beliebige dynamische Belastungen vorherrschen. Insofern hat die „Betriebsfestigkeit“ einen hohen Stellenwert. Die Abgrenzung zu den in der Praxis auftretenden Belastungsbereichen zeigt Bild 14.3. Schwingfestigkeit Kurzzeitfestigkeit N < 50.000 LW Betriebsfestigkeit (dyn. Rissbruchmechanik) 10.000 LW < N < 2.100.000 LW Zeitfestigkeit 50.000 LW < N < 2.000.000 LW Dauerfestigkeit N > 2.000.000 LW bei St N > 10.000.000 LW bei NE Bild 14.3: Abgrenzung von Belastungsbereichen am Beispiel von St-Bauteilen 14 Lebensdauersimulation 147 138 Der größte Teil der Bauteile wird somit im Betriebsfestigkeitsbereich belastet werden, der teilweise den Kurzzeitfestigkeitsbereich überlappt und den Zeitfestigkeitsbereich ganz einschließt. Weiter lässt sich feststellen, dass rein deterministische Belastungen (z. B. Sinusschwingungen) mit konstanten Lastamplituden in der Praxis äußerst selten sind. Viel häufiger treten stochastische Belastungen mit völlig regellosen Lastamplituden auf. Diese werden durch Straßenunebenheiten, Seegang, Luftböen und Be- oder Verarbeitungsvorgänge hervorgerufen. Einen Ausschnitt über reale Lastverläufe gibt Bild 14.4. Bild 14.4: Übersicht über einige stochastische und deterministische Lastverläufe Diese Lastverläufe sind so nicht verarbeitbar, sondern müssen erst in eine eindeutige Kennfunktion (d. h., Kollektiv) umgewandelt werden, womit Vergleiche möglich sind. 148 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 139 14.4 Ermittlung der äußeren Belastung Zuvor wurden einige Lastverläufe dargestellt. Diese müssen im Betrieb aber erst am Bauteil erfasst werden. Hierfür gibt es im Wesentlichen den Weg der Messung (DMS, Thermografie, Messdose, Messwelle) oder der Berechnung (MKS, FEM). In vielen Fällen sind Messungen möglich, d. h. aber nicht, dass auch die interessierende Messgröße immer direkt gemessen werden kann. Oft sind kritische Stellen (Kerbradien, Schweißnähte o. Ä.) für Messgeräte/ Messglieder nicht zugänglich, sodass Ersatzgrößen (z. B. Drehmomente) gemessen werden müssen, mit denen eine Umrechnung auf die vermutete Schwachstelle erfolgen kann. Bei Fahrzeugen wird dann oft so vorgegangen, dass das Kupplungsmoment erfasst wird, hieraus die Momente an den Rädern ermittelt und daraus weiter auf lokale Spannungsspitzen im Fahrwerk geschlossen wird. Da viele eingehende Komponenten selbst elastisch sind, verzerrt ein derartiges Vorgehen die reale Belastung, welches bei der letztendlichen Bewertung zu berücksichtigen ist. Der Weg über die Berechnung von lokalen Spannungsspitzen mit Hilfe der MKS (Mehrkörpersimulation ermittelt Kräfte und Momente) oder der FEM (Finite-Element-Methode ermittelt Dehnungen und Spannungen) ist somit auch nicht völlig fehlerfrei. Bei der Berechnung müssen ideale Materialeigenschaften (z. B. E-Modul, Querkontraktion, Streckgrenze) angenommen werden, die in der Realität auch Abweichungen / KLEI 12/ aufweisen. Erfahrungswerte sind, dass gute Messungen letztlich noch 5-8 % Fehler und gute Berechnungen noch 7-10 % Fehler aufweisen. 14.5 Kollektivbildung Die gemessenen oder simulierten Last-Zeit-Verläufe müssen für eine Lebensdauerberechnung statistisch ausgewertet werden. Dieses Verfahren bezeichnet man allgemein als Klassierung und ist in der DIN 45667 genormt. In dieser Norm sind insgesamt 6 Vorgehensweisen (so genannte einparametrige Zählverfahren) beschrieben, von denen aber das Klassengrenzenüberschreitungsverfahren (KGÜZ) die größte Bedeutung erlangt hat. Das Verfahren ist im umseitigen Bild 14.5 exemplarisch beschrieben und lässt sich in seinen Schritten gut nachvollziehen. Das Ergebnis der Klassierung ist letztendlich das Amplitudenkollektiv, also die Häufigkeitssumme der auftretenden Spannungsausschläge. Die Erfahrung hat nämlich gezeigt, dass nicht die Spannungsspitzen lebensdauerkritisch sind, sondern die Lebensdauer durch die Häufigkeit beschränkt wird, mit der bestimmten Spannungsniveaus *) zyklisch auftreten. Insofern sind regelmäßig kleinere Amplituden / HAIB 89/ viel schädigungsrelevanter. *) Anmerkung: Nach LbF-Analysen beträgt die meistschädigende Amplitude i max , a ms , a n n 2 1 k , mit k = Wöhlerliniensteigung 14 Lebensdauersimulation 149 140 500 400 300 200 100 0 t ü H ü H log 1 2 3 4 5 4 3 2 1 0 Messgröße Klassengrenze 2 m / m N 200 ü H log 100 Amplitudenkollektiv a 1 2 3 4 Kollektiv 0 Bild 14.5: Ableitung des charakteristischen Lastkollektivs nach KGÜZ 14.6 Wöhlerlinie Die von Bauteilen ertragbare Belastung wird durch die Wöhlerlinie repräsentiert. In der überwiegenden Anzahl der Fälle werden gefährdete Querschnitte betrachtet, wofür eine „Spannungs-Wöhlerlinie“ maßgebend ist. Es gibt jedoch auch Situationen, in denen Spannungs- und Dehnungsspitzen an Oberflächen auftreten und kein eindeutiger Querschnitt zugeordnet werden kann. In diesen Fällen ist eine „Dehnungs-Wöhlerlinie“ zweckgerechter, weil meist infolge hoher Lasten örtliche elastoplastische Effekte auftreten, die großen Einfluss auf die Lebensdauer haben. Mit den herkömmlichen Hydropulsern bzw. der Auswertesoftware lassen sich beide Wöhlerlinienarten problemlos erstellen. Gewöhnlich werden Wöhlerlinien mit sinusförmiger Belastungsfunktion (üblich: Zug/ Druck, Torsion, Plan- oder Umlaufbiegung) entweder mit konstanter Amplitude ai bei konstanter Mittelspannung m oder konstantem Spannungsverhältnis oi ui R (14.1) geschrieben. Auf einem Niveau ai ergeben sich dann Ausfälle i N , die bei Ermüdungsbrüchen der Gauß’schen Normalverteilung / RADA 95/ gehorchen. Angegeben werden Grenzlinien mit bestimmten Ausfallwahrscheinlichkeiten. Im umseitigen Bild 14.6 ist die Spannungs-Wöhlerlinie eines Zahnrades bzw. exakter die Wöhlerlinie der beanspruchten Zahnfüße wiedergegeben. Dies ist im Pulserversuch ermittelt worden, in dem auf vier Lastniveaus die angegebene Anzahl von Zahnrädern bis zum Bruch zerstört worden sind. 150 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 141 x f x Werkstoff Probenart/ Bauteil/ Belastung R = / bzw. U O m Bild 14.6: Bauteilwöhlerlinie eines Zahnrades aus 34 CrMo 4 (TU-München) 14.7 Schadensakkumulation Die auf ein Bauteil aufgebrachte Schwingbelastung ruft im Werkstoff Mikrorisse und letztlich einen Ermüdungsbruch / GUDE 95/ hervor. Allgemein wird dieser Mechanismus als „Schädigung“ bezeichnet. Dieser Vorgang, der bisher noch nicht quantitativ erfasst werden konnte, wird durch die Vorstellung der Schadensakkumulation, d. h. der über alle Lastspiele aufsummierbaren Schädigung nachgebildet. Diesen Gedankengang hat wohl als Erster A. Palmgren (Mitarbeiter von SKF) etwa um 1920 herum entwickelt, um die Ergebnisse von Wöhlerversuchen bei der Lebensdauervorhersage von Wälzlagern nutzen zu können. Hieraus ist die heutige Wälzlagerberechnung hervorgegangen. Im Jahre 1945 hat M. Miner den gleichen Ansatz gedanklich entwickelt und an Proben verifiziert. Miner geht davon aus, dass ein beliebiges Bauteil bis zum Bruch die Arbeit . konst W N , W i ai i aufnehmen kann und diese über alle Beanspruchungsniveaus konstant ist. Da das Zeitfestigkeitsverhalten als linear angenommen wird, besteht nach Miner die Proportion zu einer Laststufe i ai i n , w . konst N n W w i i i oder W N n w i i i . (14.2) 14 Lebensdauersimulation 151 142 Werden nunmehr auf ein Bauteil nacheinander Spannungsamplituden ai mit der jeweiligen Einwirkungsdauer i n aufgebracht, so tritt der Ermüdungsbruch ein, wenn die aufsummierten Teilschädigungsarbeiten i w genau die Größe der Brucharbeit W erreichen, also 1 N n N n N n w w w W 1 m m 2 2 1 1 m 2 1 bzw. m 1 i i 1 w W 1 oder m 1 i i i 1 N n (14.3) ist. Für eine sichere Dimensionierung ist demgemäß 1 D K (Damage einer Belastung oder eines Kollektivs) zu fordern. Wenn die bauteilseitig ertragbaren Lastspiele i N zahlenmäßig nicht bekannt sind, ist es oft einfacher, die Wöhlerlinienbeziehung *) k A ai A i N N , mit N A A =Dauerfestigkeit (14.4) einzuführen. Die Kollektivschädigung eines getreppten Kollektivs kann dann angegeben werden zu m 1 i k A ai A i K N n D mit eH m ai A R . bzw R . (14.5) Miner hat die vorstehenden Überlegungen in Versuchen belegt und als Voraussetzung der Gültigkeit definiert: nur rein sinusförmiger Beanspruchungsverlauf; alle Spannungsausschläge sind oberhalb der Dauerfestigkeit A aufzubringen; Rissbeginn wird als Schädigungsende angesehen; keine Ver- und Entfestigungserscheinungen im Werkstoff. Hiervon stark abweichende Verhältnisse führen in der Anwendung zu teils erheblichen Streuungen / NAUB 99/ bei der Lebensdauerabschätzung, wodurch der Ansatz von Palmgren-Miner vielfach in Misskredit gezogen wird. In den meisten Fällen können die Ergebnisse jedoch als erste Arbeitshypothese akzeptiert werden. Wichtig ist immer, die Hypothese auf den speziellen Anwendungsfall (s. Anhang) anzupassen. *) Anmerkung: Die Steigung der Wöhlerlinie ist -k und am Zeitfestigkeitsast als tan = -k zu bestimmen. 152 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 143 14.8 Verbesserte Schadensakkumulation Das Lebensdauerkonzept von Palmgren-Miner hat bezogen auf die Genauigkeit der Vorhersage drei wesentliche Schwächen, auf die der größte Teil der Abweichungen zurückzuführen ist: Die Bewertung kann den Reihenfolgeeffekt der aufgebrachten Belastung nicht gewichten. Spannungsamplituden unterhalb der Dauerfestigkeit haben immer dann eine Wirkung, wenn vorher schon größere Amplituden A ai aufgetreten sind. Der Abknickpunkte A A N , in der Wöhlerlinie ist kein fester Wert, wenn vorher schon Amplituden A ai aufgetreten sind (Messungen von Gassner). Diese Schwachpunkte haben in der Vergangenheit dazu geführt, dass sich sehr viele Forscher mit Schadensrechnung bzw. Schadensbewertung befasst haben. Nach einer aktuellen Untersuchung sind weltweit über 100 Hypothesen veröffentlicht worden, die unter besonderen Gegebenheiten der Palmgren-Miner-Theorie (s. auch Bild 14.7) überlegen sein sollen. Dies kann tatsächlich in speziellen Fällen so gewesen sein. Grundsätzlich lässt sich aber feststellen, dass der Akkumulationsansatz von Miner in einer Vielzahl von Fällen brauchbare Ergebnisse erzeugt, mit denen Vordimensionierungen oder Grenzabschätzungen getätigt werden können. In der Praxis haben sich daher nur Modifikationen auf der Basis von Palmgren-Miner durchgesetzt. Im Wesentlichen sind diese: Elementar-Miner (EM) bzw. Corten-Dolan, Hypothese nach Haibach, Hypothese nach Zenner-Liu, die meistens auch zu Verbesserungen in der Aussagegenauigkeit / BUXB 86/ führen. Die Grundannahmen dieser drei Vorgehenskonzepte sollen im Folgenden kurz skizziert werden: Elementar-Miner ist die Anwendung von Palmgren-Miner auf eine Wöhlerlinie, die ohne die Berücksichtigung einer Dauerfestigkeit bis zur Spannung 0 ai gerade verlängert wird. Alle auftretenden Spannungsamplituden werden am Zeitfestigkeitsast bzw. fiktiven Zeitfestigkeitsast gewichtet. Die Schädigungssumme ergibt sich so zu n 1 i k A ai A i K N n D mit eH m ai R . bzw R 0 . (14.6) Durch die „harte Bewertung“ der kleineren Spannungsamplituden führt dies regelmäßig zu einer schlechten Lebensdauer bzw. Angabe auf der sicheren Seite. Mit der Haibach-Hypothese (H) soll die experimentell gesicherte Erkenntnis des langsamen Dauerfestigkeitsabfalls bei fortwährender Schwingbelastung umgesetzt werden. Dies wird berücksichtigt durch einen bereichsweisen Palmgren-Miner-Ansatz mit der originären Zeitfestigkeitsgeraden (Steigung k) und einer in den Dauerfestigkeitsbereich hinein- 14 Lebensdauersimulation 153 144 verlängerten fiktiven Zeitfestigkeitsgeraden (Steigung 2k - 1), an der alle Amplituden A ai bewertet werden können. Die Schädigung bestimmt sich somit zu 1 k 2 A ai m 1 i n 1 m j A i k A ai A i K N n N n D (14.7) mit eH m ai A R . bzw R , A aj 0 . In der Anwendung zeigt sich, dass das ermittelte Ergebnis einen guten Mittelwert zwischen der Elementar-Miner- (EM) und der original Palmgren-Miner-Regel (PM) darstellt. Stufe i 2 a N/ mm i n i N PM D H D EM D 1 500 1 8.300 0,00012 0,00012 0,00012 2 465 45 12.500 0,00360 0,00360 0,00360 3 400 374 34.700 0,01078 0,01078 0,01078 4 350 2.480 79.900 0,03104 0,03104 0,03104 5 300 12.500 229.000 0,05459 0,05459 0,05459 6 250 43.600 6 10 21 , 1 - 0,03603 0,06374 6´ 5 10 84 , 6 7 200 131.000 7 10 9 , 1 - 0,00690 0,11391 7´ 6 10 15 , 1 8 150 250.000 6 10 85 , 3 - - 0,06493 9 100 310.000 6 10 3 , 7 - - 0,04246 10 50 250.000 7 10 38 , 1 - - 0,01812 0,10013 0,14306 0,40329 Bild 14.7: Anwendung der geläufigen Schadensakkumulationsrechnungen 154 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 145 Anmerkung: Das Kollektiv ist für 6 ges 10 n in 10 Stufen geteilt worden. Die Anzahl der Lastspiele je Stufe i n ist durch Mittelung bestimmt; die Spannungsniveaus ai sind zugeordnet worden. Der Schädigungsanteil je Stufe i i i / N n d ist für die 3 Verfahren ausgewertet worden. Es ergibt sich: PM D = 0,10013, H D = 0,14306, EM D = 0,40329. Lebensdaueraussage: Für ein Kollektiv mit einem Umfang von 6 ges 10 n Lastspielen kann folgende Leb 6 6 PM 10 98 , 9 10 10013 , 0 1 N LW 10 7 (142 %) LW 10 99 , 6 10 14306 , 0 1 N 6 6 H (100 %) LW 10 48 , 2 10 40329 , 0 1 N 6 6 EM (35 %) Resümee: Die Auswertung zeigt erhebliche Unterschiede in der Lebensdauerabschätzung, weil viele Amplituden unterhalb der Dauerfestigkeit liegen. Betrachtet man die Auswirkung nach Haibach als eine verbesserte Schätzung, so ist Palmgren/ Miner viel zu gut und Elementar/ Miner viel zu schlecht. Ein weiterer Ansatz zur Lebensdauerverbesserung wurde von Zenner-Liu vorgeschlagen. Sie nehmen nicht die Wöhlerlinie als Bezug, sondern entwickeln eine fiktive Bezugswöhlerlinie. Bild 14.8: Anwendung der Hypothese von Zenner-Liu zur Lebensdauerberechnung 14 Lebensdauersimulation 155 146 Die Idee besteht darin, den Schädigungsmechanismus, bestehend aus Rissbildung und Rissfortschritt, durch einen Steigungsanteil von m = 3,6 (Durchschnittswert aus Risswachstumskurven für Stahl) in die Wöhlerlinie einzuarbeiten. Damit ergibt sich gemäß Bild 14.8 eine konstruierte Schadenslinie mit der Steigung 2 m k * k . (14.8) Der Beginn dieser Schadenslinie ist auf den Kollektivhöchstwert gesetzt und der Abknickpunkt in den Dauerfestigkeitsbereich mit 2 * A A (14.9) festgelegt worden. Mit diesen Grenzwerten wird das unterschiedliche Schädigungsverhalten großer und kleiner Spannungsamplituden berücksichtigt. Die Erfahrung zeigt insbesondere, dass kleine Spannungsamplituden nur einen geringen Beitrag zur Schädigung leisten. Die Kollektivschädigung kann somit wieder allgemein angesetzt werden mit l 1 i 2 m k A ai A i K N n D mit eH m ai A R . bzw R 2 . (14.10) In der Praxis wurden sowohl positive als auch negative Ergebnisse mit dem Zenner-Liu-Ansatz erzielt. Gegenüber dem Palmgren-Miner-Ansatz beträgt die durchschnittliche Verbesserung in der Treffergenauigkeit ca. 7 % (also insgesamt 32 % Treffer). 14.9 Rissausbreitung unter Schwingbeanspruchung Der Bruch unter statischer Beanspruchung wurde bisher als die plötzliche Ausbreitung eines Risses über den ganzen gefährdeten Querschnitt eines Bauteils verstanden. Vor dieser mehr oder weniger schlagartigen Rissausbreitung liegt jedoch bei zahlreichen Betriebsbeanspruchungen ein Stadium langsamen Wachstums, wo sich der Riss bei jeder erneuten Belastung um einen sehr kleinen, aber endlichen Betrag vergrößert. Dieses „unterkritische“ Risswachstum hält so lange an, bis der Riss eine kritische Größe erreicht hat und dann Bruch eintritt. Für eine Scheibe würde sich die kritische Risslänge beispielsweise ergeben zu 2 o Ic c K 1 a . (14.11) Die unterkritische Rissausbreitung ist für alle periodisch schwingend beanspruchten Bauteile von größter Bedeutung, denn sie bestimmt im Wesentlichen ihre Lebensdauer, d. h. die Lastspielzahl, die erforderlich ist, damit ein unterkritischer Anriss zur kritischen Größe wächst und dann den totalen Bruch auslöst. Um die Nutzungsdauer eines Bauteils unter Schwingbeanspruchung bestimmen zu können, muss man daher wissen, nach welchen Gesetzmäßigkeiten das unterkritische Risswachstum / SCHW 80/ abläuft. 156 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 147 In zahlreichen Untersuchungen hat sich gezeigt, dass hier der Spannungsintensitätsfaktor *) den wesentlichsten Einfluss auf die Ausbreitungsgeschwindigkeit eines Risses hat. Man definiert daher in Analogie zum statischen Fall unter dynamischer Beanspruchung einen so genannten zyklischen Spannungsintensitätsfaktor: Y a 2 Y a K a . (14.12) Der Bruch tritt ein, wenn c max K K bzw. c K K , welches somit alternative Bruchkriterien sind. Das Setzen und Interpretieren dieser Grenzen zeigt Bild 14.9. Es ist hierbei hervorgehoben, dass bei einer konstant bleibenden Spannungsamplitude mit zunehmender Risslänge die zyklische Spannungsintensität bis zum Bruch anwächst. Bild 14.9: Zyklische Spannungsintensität Verlauf der äußeren Beanspruchung mit konstanter Amplitude Verlauf des proportionalen Spannungsintensitätsfaktors *) Anmerkung: Definition des statischen Spannungsintensitätsfaktors Y a K I 14 Lebensdauersimulation 157 148 Für die weiteren Betrachtungen ist im Wesentlichen aber die Risswachstumsgeschwindigkeit von Relevanz. Trägt man für verschiedene Werkstoffe die Risswachstumsgeschwindigkeit in Abhängigkeit von der zyklischen Spannungsintensität doppellogarithmisch auf, so zeigen fast alle Werkstoffe den abgebildeten Verlauf (siehe Bild 14.10). Markant ist, dass das ganze Niveau des Risswachstums in Abhängigkeit vom Spannungsverhältnis max min o u / K K . bzw / R verschoben wird. Für positive R-Werte (also im Zug-Wechselbereich) beginnt Risswachstum früher und für negative R-Werte (also im Zug/ Druck-Wechselbereich) verzögert sich Risswachstum. Des Weiteren sind zwei charakteristische Grenzen auszumachen: eine unter Grenze, wo Risswachstum beginnt, eine obere Grenze, wo sich der Riss instabil bis zum Bruch ausbreitet. a) AlZnMgCu 0,5 10 -2 10 -3 10 -3 10 -4 10 -5 10 -6 10 -4 10 -5 da dn log (mm/ LW) da dn log (mm/ LW) 3 5 10 20 50 log K (MNm ) -3/ 2 log K (MNm ) -3/ 2 5 10 50 100 b) X35NiCrMo 31 T =200°C A K =K max c K c R = 0,666 R = 0 R = 0,6 R = 0,1 Bild 14.10: Risswachstum in Abhängigkeit von der zyklischen Spannungsintensität 158 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 149 Zum Zweck einer einfacheren mathematischen Erfassung wird dieser näherungsweise durch eine S-Kurve dargestellt. Hierin können drei Bereiche abgegrenzt werden: - Im Bereich I findet so genanntes unterkritisches Risswachstum statt, d. h., für o K K liegt ein Rissstillstand vor, erst bei o K K beginnt das Risswachstum. - Im Bereich II findet stabiles Risswachstum statt, das annähernd einer Geraden folgt. Der Übergang zwischen Bereich I und II liegt etwa bei 2 / 3 MN 20 10 K sowie Rissgeschwindigkeiten von mm/ LW 10 10 4 5 . Als Risswachstumsgesetz wird oft in diesem Bereich die Paris-Erdogan-Gleichung / SAND 08/ m K C dn da (14.13) als gültig angesetzt. Die hierin auftretenden Größen C und m *) (werden allgemein Paris- Konstanten genannt) sind werkstoffabhängig zu ermitteln, es gilt etwa: für S 235 JR G1: 16 10 8 , 2 C , m = 3,96 bei R = 0,1 S 355 N: 15 10 6 C , m = 3,41 bei R = 0 15 10 6 , 3 C , m = 3,52 bei R = -1 13 10 67 , 2 C , m = 3 bei R = 0,1 *) Anmerkung: Paris-Konstanten für LW mm in dN da und mm N in K 2 3 Bild 14.11: Prinzipieller Zusammenhang zwischen Risswachstumsgeschwindigkeit und zyklischer Spannungsintensität 14 Lebensdauersimulation 159 150 für X10CrMo13: 11 10 2 , 1 C , m = 2,35 bei R = 0 für X 2 NiCoMo 18 9 5: 10 10 1 C , m = 2,07 bei R = 0 für GS-35 CrMoV 10 4: 14 10 95 , 1 C , m = 3,3 bei R = 0,1 - Im Bereich III findet überkritisches (beschleunigtes) Risswachstum statt. Die Rissgeschwindigkeit liegt bei etwa LW / mm 10 10 3 4 . Es wird angenommen, dass dies etwa bei der Spannungsintensität F 5 III E 10 1 , 4 K (14.14) einsetzt. Hierauf folgt der Bruch. Da für die Beurteilung der Restlebensdauer eines angerissenen Bauteils die noch ertragbare Schwingspielzahl interessiert, muss die Paris-Erdogan-Gleichung integriert werden: da a Y a C 1 da K C 1 dn N B N 0 c a o a m c a o a 2 1 m I B ; (14.15) für die zwischen Anriss und Bruch ertragene Lebensdauer folgt somit: m 2 m 2 2 m 2 B Y C 2 2 m c a o a N für m =/ 2 (14.16) bzw. 2 o c B Y C a a ln N für m = 2. (14.17) Die Gesamtlebensdauer eines Bauteils ermittelt sich danach aus der Addition über beide Lebensdauerphasen B AR ges N N N = (Anrisslebensdauer + Restlebensdauer). (14.18) Die direkte Auflösung der vorstehenden Gleichungen ist für die überwiegende Anzahl der Risskonfigurationen aber nicht ohne weiteres möglich, weil die eingehende Korrekturfunktion ebenfalls noch von der Riss- und Bauteilgeometrie abhängt, und zwar ist Y = Y(a/ B). 160 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 151 Demzufolge können die Gleichungen nur iterativ ausgewertet werden. Die mögliche Risslänge muss dazu von der Anfangsrisslänge o a ausgehend bis zur Endrisslänge c a in Intervalle i = 1, ..., k eingeteilt werden. In jedem Intervall bestimmt man nun für die mittlere Risslänge 1 i i i a a a die zyklische Spannungsintensität zu i i i a Y a K . (14.19) Wird dies berücksichtigt, so folgen aus der Integration die iterativen Gleichungen m i 2 m 2 i 2 m 2 1 i Bi a Y C 2 2 m a a N für m =/ 2 (14.20) bzw. für den Sonderfall 2 i 1 i i Bi a Y C a a ln N für m = 2, ( 14.21) welche über das ganze Integral ausgewertet werden müssen. Die resultierende Schwingspielzahl folgt dann aus der Aufsummierung zu k 1 i Bi B N N . (14.22) Bei den vorstehenden Überlegungen ist das Spannungsverhältnis R nicht explizit als Parameter vorhanden, sondern implizit in den Konstanten eingearbeitet. Es lässt sich aber belegen, dass variierte R-Werte eine starke Auswirkung auf das Rissfortschrittsverhalten haben. Insofern wird mit dem Ansatz von Forman eine bessere Absicherung der Lastwechselabschätzung angestrebt. Die Forman-Gleichung lautet: K K ) R 1 ( K C dn da c m , (14.23) hierin bezeichnen wieder C und m werkstoffabhängige Größen (Forman-Konstanten). Des Weiteren wird manchmal noch die Forman-Gleichung mit einer Angleichung an den unteren Schwellenwert benutzt, um den Grenzwert o K zu berücksichtigen: 14 Lebensdauersimulation 161 152 K K ) R 1 ( ) K K ( C dn da c m o . (14.24) Aus der Integration der differenziellen Beziehungen leitet sich dann wieder die Bruchlastspielzahl ab, und zwar - für einen Mittenriss in einer unendlichen Scheibe 2 m 3 o 2 m 3 c 2 m 2 o 2 m 2 c c m B a a m 3 a a m 2 K R 1 C 2 N bzw. - unter Berücksichtigung einer tatsächlichen Rissgeometrie 2 m 3 1 i 2 m 3 i i 2 m 2 1 i 2 m 2 i c m i Bi a a m 3 a Y a a m 2 K ) R 1 ( a Y C 2 N (14.25) 14.10 Berücksichtigung eines Beanspruchungskollektivs Der bisherigen Entwicklung der Berechnungskonzepte lag die Annahme einer reinen Sinusschwingung zu Grunde. Insofern ist die Spannungsschwingweite definiert als . konst 2 a u o (14.26) In der Praxis wird aber häufig der Fall der regellosen Schwingung mit veränderlicher Amplitude ) t ( a =/ konstant auftreten. Wie ein derart unstetiger Beanspruchungsverlauf in eine Konzeption einzubringen ist, soll im Wesentlichen bei der umseitigen Kollektivbildung im Bild 14.12 gezeigt worden. 162 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 153 Bild 14.12: Amplitudenkollektiv bzw. Risskollektiv und Rissbruch-Wöhlerlinie Danach sollte jetzt unterstellt werden, dass eingegebenes Amplituden(= Riss)kollektiv vorliegt. Genau wie bei der Lebensdauerbzw. Anrissproblematik hat der untere Schwellenwert o K die gleiche Bedeutung wie die Dauerfestigkeit A . Somit wird Rissfortschritt erst mit Überschreiten der kritischen Spannungsschwingweite o o o c a Y a K , (14.27) eingeleitet. Erst Spannungsausschläge 2 / c ai führen somit zu Risswachstum. Zur Bestimmung der Bruchlastspielzahlen bei Vorliegen eines Kollektivs ist nun die folgende Vorgehensweise prinzipiell möglich, wobei zurzeit noch ungeklärt ist, wie Spannungsausschläge unterhalb von c / 2 auf das Risswachstum wirken. Dies ist ein ähnliches Problem wie bei Zeitfestigkeitsproblemen. - Stufenweise Integration der Paris-Gleichung Ziel ist es, eine Rissbruch-Schädigungslinie zu bestimmen, die punktweise pro Kollektivstufe ermittelt werden muss. Hierzu kann die iterative Paris-Gleichung 14 Lebensdauersimulation 163 154 m i i a 2 m 2 i 2 m 2 1 i i B a Y 2 C 2 2 m a a N (14.28) herangezogen werden. Zur Auflösung dieser Gleichung ist ein Startwert o 1 i a a (Anfangsrisslänge, z. B. Oberflächenrauheit) erforderlich. Die Integrationsgrenze je Kollektivniveau ergibt sich aus der niveauabhängigen kritischen Risslänge zu oi c i c i K 1 a a mit ai m oi . (14.29) Unter der äquivalenten Betrachtungsweise einer linear aufaddierten Schädigung kann dann der Schädigungskoeffizient i B i i K N n S (14.30) gebildet werden, der über alle Stufen aufzuaddieren ist. Da der wirkliche Rissbruchablauf unter deterministischen Lasten wissenschaftlich noch nicht geklärt ist, sollten die Ergebnisse durch Versuche abgesichert werden. - Stufenweise Integration der Forman-Gleichung Vorgabe ist hier, dass der wirkliche Spannungsverlauf in etwa abgebildet werden soll. Dies ist insofern machbar, wenn je Stufe ein veränderliches Spannungsverhältnis bestimmt werden kann. Die Vorgehensweise ist dann wie folgt: Ausmittlung einer Mittelspannung am ursprünglichen Beanspruchungsverlauf m ; Bilden eines stufenweisen Spannungsverhältnisses ai m ai m i R ; (14.31) Bestimmen der stufenabhängigen Integrationsgrenze 2 oi c ci i K 1 a a mit ai m oi ; (14.32) 164 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 155 Ansatz der iterativen Forman-Gleichung im Intervall von ci o a , a ; a a m 3 a Y a a m 2 K R 1 a Y C 2 N 2 m 3 1 i 2 m 3 i i 2 m 2 1 i 2 m 2 i c i m i Bi (14.33) Wertung einer stufenweisen Schädigung i B i i K N n S (14.34) bzw. entsprechende Aufaddition zu einer Lebensdauer i K L n S 1 N . (14.35) 14 Lebensdauersimulation 165 156 15 Zuverlässigkeitstheorie 15.1 Grundproblematik Jedes unkontrollierte Versagen von Bauteilen kann die Funktionsfähigkeit eines Systems oder gar Menschenleben gefährden. Deshalb besteht das Ziel, „Zuverlässigkeit“ (s. DIN EN 61164) in ein System hineinzuentwickeln. Man greift hierzu auf bewährte mathematische Modelle (z. B. AMSAA oder Crow-Modell, Duane, IBM-Rosner oder ähnliche) zurück, mit denen simulativ die Zuverlässigkeit eines bestimmten Entwicklungsstandes quantifiziert werden kann. Neben der Optimierung von Schwachstellen können auch die Anordnung von Bauteilen geändert werden oder bewusst Redundanzen (Reservekomponenten, wie beispielsweise Zwei-Kreis-Bremssystem) eingeführt werden. Mit der heutigen Tendenz zur erhöhten Systemkomplexität erlangen so genannte „Zuverlässigkeitswachstums-Strategien“ bzw. „Reifegradmodelle“ erhebliche Bedeutung, womit das Ziel verfolgt wird, durch bestimmte Maßnahmen in der Entwicklung die Zuverlässigkeit immer mehr verbessern zu können. Mittlerweile wenden alle Automobil-, Flugzeug- oder Medizingerätehersteller diese Strategien an, bevor sie ihre Systeme zur Nutzung freigeben. Damit stellt sich natürlich die Frage, wie der Begriff „Zuverlässigkeit“ überhaupt inhaltlich zu fassen ist. Im Normenwesen (DIN 40041 und DIN 55350-22) gibt es hierfür drei eingrenzende Kriterien, die auch in der folgenden Definition enthalten sind: Mit Zuverlässigkeit soll die Fähigkeit eines Systems bezeichnet werden, unter definierten Belastungs- und Funktionsbedingungen mit einer vorgegebenen Wahrscheinlichkeit in einem bestimmten Zeitraum nicht auszufallen. Dies setzt voraus, dass man Zuverlässigkeit durch zeitabhängige Merkmale beschreiben kann. Da man es im Laplace’schen Sinne mit wahrscheinlichen Ereignissen zu tun hat, ist in der Mathematik die Formulierung „ A P gleich Ausfallwahrscheinlichkeit“ und „ Ü P gleich Überlebenswahrscheinlichkeit“ geläufig. Beides sind somit komplementäre Ereignisse: 1 ) t ( P ) t ( P Ü A bzw. 100 %. (15.1) Zur technischen Zuverlässigkeit besteht hingegen die Analogie: A P (t) = F(t), Ü P (t) = R(t). Dies korrespondiert mit den folgenden Aussagen: Mit Zuverlässigkeit *) bezeichnet man die Wahrscheinlichkeit, mit der ein System innerhalb einer Nutzungszeit überlebt (Überlebenswahrscheinlichkeit R(t)). Damit liegt eine Aussage vor, in welchem Maß man sich von vornherein auf die Dienste eines Systems verlassen kann. In einem anderen Fall erfüllt ein System seine Aufgabe nicht, weil eine oder mehrere Komponenten versagt (d. h. ausgefallen) haben. Nach einer möglichen Instandsetzung ist weiter von Interesse, nach der Wahrscheinlichkeit eines Ausfalls (Ausfallwahrscheinlichkeit F(t) zu fragen. *) Anmerkung: Funktionsfähigkeit/ Überlebenswahrscheinlichkeit, engl. R(t) = Reliability; Ausfallwahrscheinlichkeit, engl. F(t) = Failure 157 Der Anspruch, absolut sein zu wollen, muss auch bei der Zuverlässigkeitsrechnung aufgegeben werden. Die gefundenen Aussagen gelten immer mit einer bestimmten Wahrscheinlichkeit. Der praktische Nutzen von Zuverlässigkeitsaussagen ist somit in der Bewertung von Alternativen oder in der Stellung von Prognosen zu sehen. Hierbei sind Maßgrößen zur Quantifizierung nötig, denn für eine Abschätzung der Wirksamkeit einer Maßnahme ist neben der Bewertung der Zuverlässigkeit eines Bauteils auch sein systemtechnisches Verhalten von Relevanz / SCHL 02/ . 15.2 Systemstrukturen Bei der Analyse von Systemen hinsichtlich ihrer Zuverlässigkeit muss zunächst das Zusammenwirken der wesentlichen Komponenten (vs. Schwachstellen) betrachtet werden. Im folgenden Beispiel des umseitigen Bildes 15.1 sind zwei typische Leistungswandlungseinheiten dargestellt, und zwar ein Stirnradgetriebe und ein Planetengetriebe: - Im Fall des Stirnradgetriebes liegt bei den Zahnrädern eine typische Serienschaltung vor. Fällt ein Rad aus, so fällt die ganze Einheit aus. - Im Gegensatz dazu weist das Planetengetriebe eine innere Parallelanordnung auf. Fällt ein Planetenrad aus, so liegt dennoch eine funktionsfähige Einheit vor. Weil Ausfall und Überleben immer sich ergänzende Ereignisse sind, gilt für eine Einheit oder ein System stets R(t) + F(t) = 1. Entsprechend gilt natürlich auch für eine Komponente 1 P P ai üi bzw. 1 ) t ( F ) t ( R i i , (15.2) d. h., kennt man die Ausfallwahrscheinlichkeit, so ist auch die Überlebenswahrscheinlichkeit bekannt. Das strukturelle Ausfallverhalten kann im Weiteren unter Nutzung der Boole'schen Systemtheorie beschrieben werden. Voraussetzung hierbei ist: - Das System ist „nicht reparierbar“, d. h., der erste Ausfall beendet die Lebensdauer. Bei reparierbaren Systemen kann daher nur bis zum ersten Ausfall prognostiziert werden. - Die Komponenten im System sind „unabhängig“, d. h., das Ausfallverhalten einer Komponente wird nicht durch das Ausfallverhalten anderer Komponenten beeinflusst. Nachfolgend sollen die Grundlagen dieser Theorie (s. auch / LINß 16/ ) kurz dargestellt werden. 168 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 158 Realsystem logischer Wirkzusammenhang A B 1 z 2 z 3 z 4 z A B 1 2 3 4 S = B 1 z 2 z 3 z 4 z 5 z A A B 1 2 3 4 5 S Bild 15.1: Direkte und leistungsverzweigte Getriebestrukturen 15.3 Boole’sche Grundanordnungen die einfachsten Anordnungen findet man in Systemen mit Serien- oder Parallelschaltungen, darüber hinaus kommen auch Kombinationen / MEYN 10/ davon vor. Serienanordnung Dieser Fall ist dadurch gekennzeichnet, dass die maßgebenden Komponenten n 1 K K hintereinander wirken. Ein System überlebt hierbei nur, wenn alle Komponenten überleben. Für die Überlebenswahrscheinlichkeit ist dem gemäß anzusetzen: n 1 i i n 2 1 ) t ( R R R R ) t ( R (15.3) oder für die Ausfallwahrscheinlichkeit n 1 i i 2 1 n 2 1 ) t ( F 1 1 F 1 F 1 1 R R R 1 ) t ( R 1 ) t ( F . 15 Zuverlässigkeitstheorie 169 159 Im Falle, dass alle Komponenten die gleichen Wahrscheinlichkeitswerte aufweisen, vereinfachen sich die vorstehenden Gleichungen zu n i R ) t ( R und n i F 1 1 ) t ( F bzw. F(t) = 1 - R in . (15.4) Parallelanordnung Dieser Fall ist durch Verzweigung (Redundanzen) gekennzeichnet, d. h., es sind mehrere Kräftepfade vorhanden. Der Ausfall einer Komponente zieht also nicht zwangsläufig auch den Ausfall der Struktur nach sich. Ein System fällt nur aus, wenn alle Komponenten ausfallen: n 1 i i n 2 1 ) t ( F F F F ) t ( F (15.5) oder für die Überlebenswahrscheinlichkeit n 1 i i ) t ( R 1 1 ) t ( R . (15.6) Die Struktur dieser beiden Grundanordnungen zeigt noch einmal das folgende Bild 15.2. Blockdiagramm Überlebenswahrscheinlichkeit - logische Serienanordnung K1 K2 Kn n 1 i i n 2 1 ) t ( R ) t ( R ) t ( R ) t ( R ) t ( R - logische Parallelanordnung K1 K2 Kn n 1 i t i F t n F t 2 F t 1 F t F ) ( ) ( ) ( ) ( ) ( bzw. n 1 i i ) t ( R 1 1 ) t ( R Bild 15.2: Überlebenswahrscheinlichkeit von Serienanordnung und Parallelanordnung 170 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 160 Vom Aufbau her können in Systemen aber auch Mischanordnungen wie - eine Parallel-Serienschaltung - eine Serien-Parallelschaltung auftreten, welche im Bild 15.3 kurz skizziert worden sind. Blockdiagramm Zuverlässigkeitsfunktion - Parallel-Serienanordnung K 11 K 12 K 1n K 22 K 2m K 21 ) t ( R 1 ) t ( R 1 1 ) t ( R m 1 k k 2 n 1 i i 1 - Serien-Parallelanordnung K 11 K 12 K 22 K 21 K 1n K 2n n 1 i i 2 i 1 t R t R 1 ) t ( R Bild 15.3: Definition der Zuverlässigkeit von Parallel-Serienanordnung und Serien-Parallelanordnung Bei einer Parallel-Serienanordnung sind oft duale Komponenten in parallelen Strängen hintereinander angeordnet. Ein Strang fällt also aus, wenn eine Komponente ausfällt. Das System fällt aber nur aus, wenn beide Stränge ausfallen. Demgegenüber sind in einer Serien-Parallelschaltung parallel liegende duale Komponenten in Serie angeordnet. Das System fällt somit aus, wenn beide Komponenten der Parallelschaltung ausfallen. Ergänzend ist im folgenden Bild 15.4 noch eine Parallelanordnung mit m parallelen Pfaden dargestellt. 15 Zuverlässigkeitstheorie 171 161 Blockdiagramm Bild 15.4: Zuverlässigkeit eines beliebig kombinierten Systems K 11 K 12 K 1n K 22 K 2n K 21 K m2 K mn K m1 n m Überlebenswahrscheinlichkeit m 1 i n 1 k ik ) t ( R 1 1 ) t ( R 15.4 Systemverhalten Die Beziehungen für die vorstehenden Grundanordnungen sollen nun in ihrem Systemwirken kurz betrachtet werden. Üblicherweise nutzt man hierzu Zuverlässigkeitsdiagramme (s. hierzu Bild 15.5. und Bild 15.6), in denen die Anzahl der Komponenten als Parameter eingeht. Im Folgenden sei vereinfachend angenommen, dass alle Komponenten eine gleiche Überlebens- und damit eine gleiche Ausfallwahrscheinlichkeit besitzen. Somit gelten die Gleichungen (Potenzgesetz): n i R ) t ( R bzw. n i F 1 1 ) t ( F für die Serien-/ Reihenanordnung und n i R 1 1 ) t ( R bzw. n i F ) t ( F für die Parallelanordnung. Im linear geteilten Maßstab ist hier auf einer Achse die Überlebenswahrscheinlichkeit und auf der anderen Achse die Ausfallwahrscheinlichkeit über der Komponentenzuverlässigkeit abgetragen. Von der Tendenz her ist festzustellen, dass die Systemzuverlässigkeit einer Serienanordnung hinter der ihrer Komponentenzuverlässigkeit zurückbleibt. Beträgt beispielweise die Überlebenswahrscheinlichkeit einer Komponente 9 , 0 R i , so liegen bei n = 20 Komponenten nur noch 12 , 0 9 , 0 R 20 20 vor. 172 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 162 1 0,8 0,6 0,4 0,2 0 1 0,8 0,6 0,4 0,2 0 0 0,2 0,4 0,6 0,8 0 0,2 0,4 0,6 0,8 1 F i F i R R n = 1 2 3 5 10 20 1 Dies ist wie folgt zu interpretieren: Obwohl jede Komponente nach t Stunden eine Überlebenswahrscheinlichkeit von 90 % hat, überlebt das System im Mittel nur mit 12 % Wahrscheinlichkeit, oder von 100 gleichartigen Systemen erfüllen letztlich nur 12 ihren Auftrag. Das Diagramm kann natürlich auch rekursiv genutzt werden: Wird beispielsweise von einem System eine Überlebenswahrscheinlichkeit von R(t) = 0,9 verlangt, so ist mit der Anzahl der Bauteile eine immer höhere Komponentenzuverlässigkeit zu realisieren. Bei n = 20 Komponenten mithin 994746 , 0 R i , also ein fast unmögliches Unterfangen. Im Gegensatz zur Serienanordnung steigt bei der Parallelanordnung die Gesamtzuverlässigkeit mit der Anzahl der Komponenten an. Eine geforderte untere Grenze der Zuverlässigkeit kann somit durch genügend zuverlässige Komponenten eingehalten werden oder dadurch, dass ausreichend viele Komponenten parallel angeordnet werden, sofern dies sinnvoll und technisch möglich ist. 1 0,8 0,6 0,4 0,2 0 1 0,8 0,6 0,4 0,2 0 0 0,2 0,4 0,6 0,8 0 0,2 0,4 0,6 0,8 1 F i F i R R n = 1 1 2 3 5 10 20 Bild 15.5: Zuverlässigkeitsdiagramm für eine reine Serienanordnung Bild 15.6: Zuverlässigkeitsdiagramm für eine reine Parallelanordnung 15 Zuverlässigkeitstheorie 173 163 15.5 Mathematische Zuverlässigkeitsdefinition Von generellem Interesse beim Zusammenspiel mehrerer Schwachstellen ist letztlich die Lebensdauererwartung eines Systems, welche durch eine der vorstehenden Wahrscheinlichkeiten gekennzeichnet ist. Bei der Betrachtung dieses Problems muss die Zeit als Zufallsgröße aufgefasst werden. Die Systemlebensdauer MTTF bzw. T m gilt es somit als eine Folge von Komponenten- Lebensdauern i t (bzw. i L ) aus Experimenten statistisch abzusichern. In der Wahrscheinlichkeitsrechnung spricht man diesbezüglich vom Erwartungswert oder Zeitwert einer Zufallsgröße t. Der Erwartungswert „E(t)“ ist üblicherweise der Mittelwert o m dt t ) t ( f T ) t ( E . tpunkt) Ausfallzei und ahme Inbetriebn zwischen it Nutzungsze : bez. Failure, To Time Mean (MTTF mittlere (15.7) Hierin bezeichnet f(t) die so genannte Ausfalldichte (-Funktion), welche definiert ist zu dt dR dt dF ) t ( f . (15.8) Wird diese vorstehend eingeführt und das Integral partiell ausintegriert sowie der Verlauf der Überlebensfunktion berücksichtigt, so folgt letztlich für die mittlere Lebensdauer des Systems: dt ) t ( R T o m . ben) für Überle Zeitraum h. d. , = t bis 0 = t on von bensfunkti der Überle egral Flächenint ˆ t (Mittelwer (15.9) Eine weitere wichtige Größe ist die zuvor schon eingeführte Ausfallrate ) t ( , welche definiert ist als das Verhältnis Einheiten intakten noch der Summe it chwindigke Ausfallges dt ) t ( dR ) t ( R 1 ) t ( R ) t ( f ) t ( . (15.10) Der Begriff Ausfallrate / BERT 04/ wird im Weiteren verständlich, wenn man eine größere Stichprobe von n gleichen Bauteilen betrachtet, die einer Lebensdauerprüfung unterworfen werden. Nach Ablauf einer bestimmten Prüfzeit t wird eine Anzahl a n ausgefallen sein und eine Anzahl ü n die Prüfung überlebt haben. Somit gilt: n n n ü a . (15.11) Versteht man vereinfacht die Wahrscheinlichkeiten R(t) und F(t) als Grenzwerte der relativen Häufigkeit, dann lassen sich für die zuvor angedachten Prüfungen auch empirische Zusammenhänge angeben, und zwar 174 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 164 n n ) t ( R~ ü und n n ) t ( F ~ a . (15.12) Insofern kann dann die Ausfallrate definiert werden als ] h [ t n n ) t ( n dt dn n 1 dt dn n 1 n n ) t ( 1 a a a ü ü ü . (15.13) Die Ausfallrate *) lässt sich somit deuten als die Anzahl der Ausfälle a n aus einem Prüfumfang n bezogen auf die zu einem Zeitpunkt t noch intakten Einheiten n ü . Des Weiteren kann aus der Definition der Ausfallrate noch die Überlebenswahrscheinlichkeit für ein System über ein Zeitintervall 1 t , 0 bestimmt werden. Aus der Umstellung folgt zunächst dt ) t ( R dR (15.14) oder integriert 1 t R ) o ( R 1 t o dt ) t ( R dR , dt ) t ( 1 t R R ln 1 t o 1 mit 1 ) o ( R . Wird diese Gleichung entlogarithmiert, so entsteht die Exponential-Funktion dt 1 t o ) t ( e ) t ( R . (15.15) Dies belegt, dass die Zuverlässigkeitsfunktion über der Zeit eine abfallende Funktion ist. Vorstehende Betrachtung ist danach auf die Fragestellung erweitert worden, die Überlebenswahrscheinlichkeit eines Systems für einen Zeitraum t von 1 t bis 2 t zu bestimmen, wenn das System den vorherigen Zeitraum von 0 bis 1 t überlebt hat. Diese Gleichung wird als verallgemeinerte Zuverlässigkeitsfunktion bezeichnet: 2 t 1 t dt t 2 1 e ) t , t ( R . (15.16) *) Anmerkung: Typische Lastenheftangabe 1 6 h 10 2 oder 2.000 FIT (1 FIT = 10 -9 h -1 ) Beispiel: Im Test werden 1.000 Bauteile genau 1.000 Std. geprüft. Wie viele dürfen ausfallen? 2 000 . 1 000 . 1 10 2 t n ) t ( ) t ( n 6 a 15 Zuverlässigkeitstheorie 175 165 15.6 Zufallsausfälle Treten in einem System Zufallsausfälle zu beliebigen Zeitpunkten auf, so kann angenommen werden, dass die Ausfallrate zeitunabhängig . konst t ist, wenn das System trotz Nutzung nicht „altert“. Dies ist in der Regel bei Elektronikkomponenten der Fall, wo das normale Schalten von Strömen zu keiner Alterung bzw. Verschleiß führt. Für den Exponenten der vorstehenden Gleichung kann somit angesetzt werden: 1 1 t o t dt ) t ( , (15.17) welches eine konstante Ausfallrate charakterisiert. Die Überlebenswahrscheinlichkeit eines Systems in einem Zeitintervall von t = 0 bis t = 1 t ist dann angebbar als 1 t 1 e t R . (15.18) Interpretiert heißt dies aber auch, dass die Zuverlässigkeit t , t R 1 eines Systems, welches zum Zeitpunkt 1 t noch funktionsfähig ist, unabhängig von der Vorbelastungszeit ist. Demnach gilt also auch t 1 e t , t R . (15.19) In der Überlebenswahrscheinlichkeitsfunktion tritt also die Vorbelastungszeit nicht mehr in Erscheinung, sondern nur noch das Zeitintervall. Entsprechend gilt für die Ausfallwahrscheinlichkeit t 1 e 1 t , t F . (15.20) Damit ist eine Exponentialverteilung beschrieben, die beispielsweise für reine Zufallsausfälle von elektronischen Komponenten maßgebend ist. Hieraus können dann weiter die Ausfalldichte bzw. Dichtefunktion zu t e ) t ( f (15.21) und die mittlere Lebensdauer 1 0 e 1 dt e dt R T t o t o m *) ) e Ausfallrat . konst mit n Komponente von Zeit ie ausfallfre mittlere . h . d , Failues Between Time Mean MTBF ( (15.22) bestimmt werden. *) Anmerkung: 1 e , e 176 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 166 Anzumerken bleibt, dass für beliebig lange Betrachtungszeiträume die Annahme einer konstanten Ausfallrate nicht bedingungslos zutreffend sein wird, da über einen längeren Zeitraum gewöhnlich auch die Ausfallrate aus unterschiedlichen Gründen (Temperaturschwankungen, Schwingungen, Spannungsabbrand etc.) zeitabhängig sein wird. Hinweis: Die mathematische Zuverlässigkeitstheorie nutzt verallgemeinerte Fälle, die in der „Technischen Zuverlässigkeit“ spezialisiert werden auf reale Komponenten und Systeme. 15.7 Früh- und Abnutzungsausfälle Die reale Verhaltensweise technischer Systeme (gefügt aus mehreren Komponenten) ist wie zuvor gezeigt, durch ein zeitabhängiges Ausfallverhalten / MÖLL 89/ gekennzeichnet. Ein Beispiel hierzu mag die Kundendienstauswertung der Motorschäden (Bild 15.7) an einem Nutzfahrzeug abgeben. Ausfallrate (t) in % 10 5 0 25.000 40.000 120.000 200.000 Laufleistung in km Bild 15.7: Motorschäden an einem 16-t-Daimler-LKW Man erkennt, dass in einem frühen Stadium relativ viele Ausfälle (Montagefehler, fehlerhafte Teile, Bedienfehler) aufgetreten sind. Danach stabilisieren sich die Ausfälle während eines langen Zeitraums auf niedrigem Niveau. Naturgemäß nehmen dann mit zunehmender Laufleistung die Ausfälle wieder zu. Dies ist auf erhöhtem Verschleiß, Ermüdung etc. zurückzuführen. Um also das reale Verhalten möglichst zutreffend beschreiben zu können, bedarf es der Approximation einer dem Verhalten angenäherten Ausfallrate. Diese kann mit der so genannten „Weibull-Verteilung“ erzeugt werden, wie dies im umseitigen Bild gezeigt ist. Der hierin dargestellte Verlauf wird allgemein als „Badewannenkurve“ bezeichnet. Definiert man hierfür die zweiparametrige Weibull-Verteilung, so kann diese angegeben werden als Überlebenswahrscheinlichkeit mit 15 Zuverlässigkeitstheorie 177 167 b T t e t R (15.23) bzw. als Ausfallwahrscheinlichkeit t R 1 t F . (15.24) b = 1 b < 1 ) t ( Bereich II: Zufallsausfall Bereich I: Frühausfall b = 2 b = 1 b = 0,5 F(t) 3 10 4 10 5 10 6 10 1 50 10 99 99,9 b (Ausfallsteilheit) 1 2 (z.B. Werkstoff-, Konstruktions- und Fertigungfehler) Maßnahmen Versuche, Qualitätskontrollen richtige Anwendung und Einhaltung von Wartungsintervallen Versuchs- und Berechnungsmethoden Lebensdauer t (b) (a) (z.B. hervorgerufen durch Wartungs- und Bedienungsfehler) (z.B. Ermüdungserscheinungen,Dauerbruch,Grübchen) Bild 15.8: Ausfallrate und Ausfallwahrscheinlichkeit in Abhängigkeit von der Zeit 178 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 168 Hierin bezeichnet t die Lebensdauervariable in Zeiteinheiten oder Lastwechsel, T die charakteristische Lebensdauer eines Bauteils; ist der Zeitpunkt bis zu der 63,2 % der betrachteten Einheiten ausgefallen sind, b den so genannten Formparameter bzw. die Ausfallsteilheit. Für einige Maschinenelemente gibt es hierzu experimentelle Anhaltswerte, und zwar Komponente b Zylinderlager Kugellager Kegelrollenlager Zahnräder, Grübchenbildung - Dauerfestigkeitsgebiet - Zeitfestigkeitsgebiet Wellen Dichtringe Sperrsynchronisierungen Synchrongetriebe Lastschaltgetriebe 1,5 1,1 1,3 1,5 ... 2,0 2,0 ... 3,0 2,0 ... 2,3 1,6 ... 2,9 1,5 ... 1,7 1,4 1,5 Schrauben 6,0 ... 8,0 Bei den meisten Systemen des Maschinen- und Fahrzeugbaus können dabei Reihenschaltungen angenommen werden. Hierfür ergibt sich dann die System-Überlebenswahrscheinlichkeit wieder aus dem Multiplikationssatz zu n 1 i i ) t ( R ) t ( R . (15.25) Im vorstehenden Bild 15.8 ist ein idealisierter Verlauf einer Ausfallwahrscheinlichkeit F(t) = 1 - R(t) für ein Bauteil im Weibull-Wahrscheinlichkeits-Papier dargestellt. Hier ist der Formparameter der Badewannenkurve angepasst worden, sodass die benannten Lebensdauerbereiche abgebildet werden konnten. Als Parameter der Badewannenkurve ist hier wieder die Ausfallrate ) t ( benutzt worden. Diese kann als Ausfallrisiko für ein Bauteil aufgefasst werden, welches bereits den Zeitpunkt t überlebt hat. Die Ausfallrate ist gegeben als 1 b T t T b ) t ( . (15.26) Weiterhin zeigt die Praxis, dass die zweiparametrige Weibull-Funktion nicht dazu geeignet ist, Systeme mit einer ausfallfreien Zeit darzustellen. Hierfür ist eine Erweiterung zu einer dreiparametrigen Weibull-Funktion erforderlich: 15 Zuverlässigkeitstheorie 179 169 b o t T o t t e ) t ( R . (15.27) Dieser Ansatz berücksichtigt, dass Bauteile nicht schon zum Zeitpunkt t = 0 ausfallen, sondern, dass in der Regel eine ausfallfreie Zeit o t vergeht und dann erst Ausfälle auftreten. Für einige Maschinenelemente hat man etwa folgende Verhältnisse zwischen der typischen 10 L Lebensdauer und der ausfallfreien Zeit 10 o t c t gefunden / BERT 86/ : Komponente 10 o / t t Wälzlager Zahnräder Welle Schrauben 0,3 0,5-0,8 0,7-0,8 0,8 Wie später noch begründet werden wird, kann diese Funktion jedoch nicht einfach ausgewertet werden, wenn o t nicht exakt bekannt ist. Gewöhnlich benötigt man hierzu Versuche. Es ist jedoch auch möglich t o mit dem Approximationsansatz von Dubey abzuschätzen. Mit einem bekannten o t kann die Zuverlässigkeitsfunktion dann nach einer Transformation * o t t t bzw. * o T t T zweiparametrig als b * T * t * e t R (15.28) ausgewertet werden. 15.8 Zeitraffende Erprobung Lebensdauertests im Labor (Klimaschränke, Prüfstände etc.) verfolgen den Zweck, möglichst schnell Erkenntnisse über Schwachstellen und somit die spätere Lebensdauer und Zuverlässigkeit von Komponenten, Strukturen und Systemen zu gewinnen. Hierbei muss unterschieden werden in Schwingbruch- oder Temperaturwechselversagen und ein parameteriell provoziertes Versagen, i. d. R. durchgeführt mit einer „verschärften Belastung“ (DIN EN 62506). Dem gemäß unterscheidet man die nachfolgenden beschleunigenden Testverfahren (ALT = Accelerated Life Testing): 180 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 170 Inverse Power Law mechanische Komponenten/ Systeme bis Bruch (Lastwechsel/ Frequenz, Temperaturwechsel) Step-Stress-Test mechanische Komponente bis Bruch (Laststufung/ Lastwechsel) HALT-Test elektrische, elektronische, elektromechanische Komponente bis Ausfall, ggf. bei kombinierter Grenzbelastung unter Spanung / Temperatur / Vibration / Feuchtigkeit. Simulation ggf. nach Eyring bzw. Arrhenius. HAST-Test a) Mechanische Komponenten/ Bauteile nach Coffin-Manson Für Bauteile, die mit quasi-statischen (Kriech eaufschlagt werden, hat man die Beziehung (Inverse Power Law = Raffungstest) konst B t e , mit t = Prüfzeit, (15.29) B = Belastung, e = Beschleunigungsexponent, gefunden. Insbesondere konnte für metallische Bauteile (e St Al , Mg -1,8) unter Schwingbeanspruchung und zyklischer Verformung bis zum Dauerbruch der Zusammenhang 2 2 1 1 2 B B t t bzw. 2 1 1 2 t t B B (15.30) für Stahl bestätigt werden. Dies gilt aber nur für gleiche Versagensmechanismen. Beispiel: Um wie viel muss die Belastung erhöht werden, um die Prüfzeit zu halbieren? fach 41 , 1 2 0 , 1 B 2 Viele Bauteile (z. B. Motorenbereich) werden auch unter Temperatur schwingend beansprucht, hierfür gilt analog konst T N e , mit N = Lastwechsel (15.31) oder e 2 1 1 2 T T N N . (15.32) rden. 15 Zuverlässigkeitstheorie 181 171 Beispiel: Wie wirken sich 10°C Temperaturwechselerhöhung (von T 1 =30° auf T 2 =40°) auf die Lebensdauer eines Bauteils aus? 1 5 , 2 1 2 N 49 , 0 40 30 N N , d. h., durch eine 10°C höhere Wechseltemperatur reduzierte sich die Lebensdauer um 51 %. b) Elektronikbauteile Elektronische Komponenten zeigen im Betrieb keine sichtbare Abnutzung, so dass Versagen infolge von Alterung, Spannungs- oder Temperaturschwankungen erfolgt. Um dennoch im Labor reales Versagen zu erzeugen, hat man Prüfprozeduren wie HALT (Highly Accelerated Life Test) bzw. HAST, HASS (Stress Screening) und HASA (Stress Audit) konzipiert. Diese Tests beruhen auf den physikalischen Modellen von Eyring und Arrhenius / VDA 16/ . Das Eyring-Modell entstammt der Quantenmechanik und wird üblicherweise in der Chemie zur Simulation von zeitabhängigen Oxidationsvorgängen genutzt. Die Eyring- Beziehung hat die Grundform ) T ( e T C dt dM T k E a Reaktionsgeschwindigkeit = ident. Ausfallrate, (15.33) wobei die zeitliche Änderung der Reaktionsmenge unter Temperatureinfluss der Ausfallrate ) T t ( *) gleichgesetzt wird. In der Gleichung bezeichnet M = Reaktionsmenge C = Konstante T = absolute Temperatur (273,15 + °C) in °K a E = Aktivierungsenergie in Joule (J) oder Elektronenvolt (eV) k = Bolzmann-Konstante K / eV 10 62 , 8 oder K / J 10 38 , 1 5 23 Wenn zusätzlich zur Temperatur noch eine Spannungsveränderung berücksichtigt werden soll, kann die Eyring-Beziehung folgendermaßen erweitert werden: ). T ( e T A dt dM T k U D U C T k B (15.34) *) Anmerkung: In der Prüfpraxis wird die Ausfallrate nach folgender Formel bestimmt: a a n n ) t ( n ) t ( a n = Anzahl der Ausfälle (schadhafte Teile) n = Zahl der Prüflinge insgesamt t = betrachtetes Zeitintervall 182 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 172 Das Problem der Gleichung besteht darin, dass in Normierungsexperimenten die Konstanten A, B, C und D bestimmt werden müssen. In der Literatur werden aber auch Schätzmethoden für die Konstanten angegeben. Viel einfacher gestaltet sich die Simulation der Ausfallrate (in Abhängigkeit von der Temperatur) über das Arrhenius-Modell *) . Die Gleichung entstammt der Thermodynamik und beschreibt die Umwandlungsgeschwindigkeit eines Stoffes in einen zweiten Zustand. In der Elektronik wird überwiegend die Grundform der Arrhenius-Gleichung T k a E e A dt dM (15.35) genutzt und wie folgt abgewandelt: 2 1 T k E : T e dt dn n 1 dt dM a . (15.36) Will man nun ausgehend von einer Ausfallrate 1 bei einer Temperatur 1 T die Ausfallrate 2 bei einer Temperatur 2 T schätzen, so ist anzusetzen: BF e 1 2 T 1 1 T 1 ka E 1 2 , mit 1 2 T T , BF = Beschleunigungsfaktor (15.37) In der Praxis ergibt sich ein durchschnittlicher Fehler von ca. 10 %. Eine weitere Faustregel ist: Bei Elektronikbauteilen bewirken 10 °C Temperaturerhöhung etwa eine 40-50%ige Steigerung der Ausfallrate bzw. proportional eine 50 % geringere Lebensdauer. Das wohl größte Problem in der Anwendung der beiden Gleichungen besteht in der Kenntnis der Aktivierungsenergie: 2 1 1 2 a T 1 T 1 n k E , (Bereich: eV 9 , 1 ) 0 , 1 ( 2 , 0 E a ) (15.38) die bauteilspezifisch bekannt sein muss. Zur Ermittlung von a E haben sich in der Praxis jedoch Standardprozeduren etabliert. *) Anmerkung: Die Beziehung geht auf S. Boltzmann zurück. Er hat sich als Physiker mit gas- und thermodynamischen Problemen beschäftigt. Eine wichtige Beziehung ist die „Wahrscheinlichkeit von Zustandsänderungen (und anderen Größen) bei Energiezu- und Energieabfuhr“. 15 Zuverlässigkeitstheorie 183 173 Fehlermechanismus Aktivierungsenergie E a [eV] beschädigte Bondung 0,2 Siliziumfehler 0,3 Oxiddurchschläge/ Oxidfehler 0,35 Diffusionsfehler 0,5 Kurzschluss 0,5 Korrosion 0,6 Leckströme 0,7 - 0,9 Ätzfehler 1,0 Metalldurchdringungen 1,6 Bild 15.9: Werte für die Aktivierungsenergie (Versuche von Fa. Infineon) Beispiel: Experimentelle Bestimmung der Aktivierungsenergie für ein Motorsteuergerät. Experimente Temperatur SAE-Ausfallrate 1 mittlere Temperatur im Motorraum 50 °C = 323 °K 1.077 ppm/ a 2 10 °C erhöhte Temperatur 60 °C = 333 °K 1.323 ppm/ a Beschleunigungsfaktor: 23 , 1 077 . 1 323 . 1 BF 1 2 Aktivierungsenergie: eV 19 , 0 333 1 323 1 ) 23 , 1 ( n 10 63 , 8 E 5 a Wie lange muss für die Laborprüfzeit L t bei einer Temperatur von K 363 C 90 und einer vorgegebenen Lebensdauer von 3.000 h bei 50 °C eingeplant werden? Beschleunigungsfaktor: 1 , 2 e e BF 363 1 323 1 5 10 63 , 8 19 , 0 2 T 1 1 T 1 ka E Laborprüflaufzeit: h 429 . 1 1 , 2 h 000 . 3 t L 184 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 174 15.9 Ausfallverhalten von Elektronikbauteilen Bei den zuvor dargestellten mechanischen Komponenten war das zeitabhängige Ausfallverhalten charakteristisch. Ein ähnliches Ausfallverhalten lässt sich bei Elektronikbauteilen unter dem Einfluss von Temperatur- und Spannungsschwankungen sowie Umgebungsschwingungen beobachten. Bezüglich der Bewertung dieses Verhaltens haben sich Firmenstandards (s. Bell, Siemens) und nationale Standards (s. MIL-HDBK-217, Union Technique de L’electricite, DIN ICE 56 (Sec) 348/ E) herausgebildet. Ziel ist es, jeweils die Ausfallrate in einer bestimmten Systemumgebung abzuschätzen. Hierfür hat sich weitestgehend der amerikanische MIL-Standard (Military Handbook-Reliability Prediction of Electronic Equipment) durchgesetzt. Prinzip von MIL ist es, einen Basiswert b zu bestimmen und diesen mit -Faktoren auf den Einsatzfall abzustimmen. Dabei wird von dem folgenden Grundmodell A Q E b (15.39) für diskrete Bauteile oder für ICs von dem erweiterten Modell E 2 V T 1 L Q C C (15.40) ausgegangen. In die Modellgleichungen gehen ein: b = Basiswert, berücksichtigt die Umgebungstemperatur A und die elektrische Belastung (S); E Faktor für die Umweltbedingungen; Q Faktor für die Fertigungsqualität und die Vorbehandlung; A Faktor für die Bauteileigenschaften und die Anwendung; 1 C Faktor für die Komplexität; 2 C Faktor für Anzahl der Anschlüsse (Pins) und dem Gehäusetyp; T = Faktor für die Chiptemperatur J und die Technologie; V Faktor für die Spannungsbelastung (CMOS) und L Faktor für die Reife des Herstellungsprozesses. Der Wert von liegt etwa zwischen 1 9 h 10 für einfache passive Bauteile und bei 1 7 h 10 für VLSI-ICs (gewöhnlich wird dies in FIT angegeben). Zur Bestimmung stellt MIL Tabellen und Diagramme bereit. Im umseitigen Bild 15.10 ist der prinzipielle Verlauf von ) t ( dargestellt, er ist insgesamt flacher als bei mechanischen Systemen und sehr temperaturempfindlich. Die Temperaturabhängigkeit führt zu einem schnellen Anstieg der Ausfallrate. 15 Zuverlässigkeitstheorie 185 175 1 2 1 (t) ekronik) Fahrzeugel bei enze (Einsatzgr Std. 3000 ~ t 0 50-100 Std. Bild 15.10: Typischer exponentieller Verlauf der Ausfallrate einer Großgesamtheit identischer E-Kompo Der Verlauf der Ausfallrate kann statistisch folgendermaßen erklärt werden: Es liegt eine Großgesamtheit von N Einheiten vor. Hierin seien N p normale Einheiten und N p 1 schwache Einheiten. Da die schwachen Einheiten frühzeitig ausfallen, wird in der Anfangsphase die Grundgesamtheit bezüglich Zuverlässigkeit immer besser, was in der ersten Phase zur Abnahme der Ausfallrate führt. Die einzelnen Phasen charakterisieren wieder die Bereiche „Frühausfälle“ (Auslegungsfehler, Fertigungsfehler, Montagefehler, Werkstofffehler Überhitzung o. Ä.) „Zufallsausfälle“ (Bedienungsfehler, Schmutzpartikel, Wartungsfehler o. Ä.). „Verschleißausfälle“ (Alterung, Abnutzung) kommen faktisch nicht vor. Dieser Verlauf für eine konstante Temperatur kann prinzipiell auch mit der Weibull- Verteilung nachgebildet werden. 186 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 176 Mittlerweile hat man auch im Maschinen- und Automobilbau einige Erfahrungen mit Bauteilausfällen gesammelt. Die folgenden Angaben sind verschiedenen Literaturquellen entnommen und grenzen Bereiche von Ausfallraten ein. Bild 15.11: Im Gebrauchsumfeld ermittelte durchschnittliche Ausfallraten von Bauteilen nach / BRIO 91/ 15 Zuverlässigkeitstheorie 187 177 16 Versuchsdatenanalyse 16.1 Ausfallcharakteristik In vielen Industriezweigen ist es üblich, vor Serienstart mit letzten Bestätigungsversuchen die Annahmen der Auslegung zu überprüfen, um eine Prognose anstellen zu können, wie sich Einheiten oder Systeme im späteren Kundengebrauch verhalten werden. Zu diesem Zweck wird eine größere Anzahl von Einheiten/ Systemen (mindestens n= 6-8 Prüflinge) einer definierten Versuchsprozedur unterworfen, und deren Lebensdauerwerte (Betriebsstunden, Laufzeiten in km, Belastungszyklen etc.) gemessen. Ausfallkriterium muss hierbei nicht immer Bruch sein. Es kann im Prinzip ein beliebiger Grenzwert (z. B. Überhitzungstemperatur, Spiel, Abrieb o. Ä.) festgelegt werden. Hierbei ist der Werkstoff unerheblich. Die Lebensdauern selbst gleichartiger Einheiten werden sich bei gleichen Beanspruchungsbedingungen unterscheiden, d. h., die gemessenen Werte streuen und können darum nur mit statistischen Methoden interpretiert werden. In der Praxis zeigt sich, dass Lebensdauern mechanischer und mechatronischer Systeme *) ein bestimmtes charakteristisches Versagensverhalten aufweisen, welches eben durch die zuvor schon dargestellten drei Phasen Frühausfälle, Zufallsausfälle und Verschleißausfälle abgegrenzt werden kann. Dieses Verhalten kann mathematisch durch die Weibull-Funktion sehr gut beschrieben werden. Die Weibull-Funktion ist hierbei so universell formulierbar, dass sie auch Normal- und Exponentialverteilungen erfassen kann. 16.2 Zweiparametrige Weibull-Verteilung Der einfachste Ansatz von Weibull wird über zwei Parameter (t, b) gesteuert. Dieser Ansatz wird zwar in der Praxis am häufigsten angewandt, unterstellt aber, dass zumindest theoretisch ein Erzeugnis schon bei sehr kleinem t (extrem bei n = 1 Umdrehung) ausfallen kann. Möglich ist dies zwar, wenngleich wenig wahrscheinlich, denn die Erfahrung zeigt, dass Bauteile sich mindestens ein paar Mal drehen oder bewegen müssen, bis ein Ausfall eintritt. Der zweiparametrige Ansatz lautet demgemäß: 0 b , 0 T , 0 t , e 1 ) t ( F b T t 718 , 2 . (16.1) F(t): Ausfallwahrscheinlichkeit. Wahrscheinlichkeit dafür, dass die Lebensdauer einer Einheit eine betrachtete Betriebsdauer t nicht erreicht. R(t): Überlebenswahrscheinlichkeit ) t ( F 1 ) t ( R .Wahrscheinlichkeit, dass die Lebensdauer eine betrachtete Betriebsdauer t ab Anwendungsbeginn mindestens erreicht. t: Lebensdauervariable ( Fahrstrecke, Einsatzdauer, Lastwechsel, ...) *) Anmerkung: Zu den mechanischen Systemen zählen auch Hydraulik- und Pneumatikkomponenten bzw. zu den mechatronischen Systemen zählen elektro-mechanische Einheiten. 178 T: Charakteristische Lebensdauer. Zum Zeitpunkt T t hat die Verteilungsfunktion den Wert 6321 , 0 71828 , 2 1 1 e 1 1 e 1 ) T ( F b 1 , d. h., die Lebensdauer einer Einheit ist mit der Wahrscheinlichkeit 0,632 ( ˆ 63,2 %) gleich der Zeitdauer T. Oder für ein Prüflos von Einheiten sind bis zum Zeitpunkt t = T etwa 63,2 % ausgefallen. b: Formparameter oder Ausfallsteilheit charakterisiert die Verteilungsform. Der Wert des Formparameters wird ausschließlich durch den vorherrschenden Ausfallmechanismus bestimmt. Für den Fall, dass bei geänderter Belastung jedoch der Ausfallmechanismus gleich bleibt, bleibt auch der Formparameter gleich. Mit b kann daher eine Ausfallphase identifiziert werden: b < 1 Frühausfälle, z. B. wegen Fertigungs-/ Montagefehlern b = 1 Zufallsausfälle mit konstanter Ausfallrate b > 1..4 Verschleiß- und Ermüdungsausfälle, Alterung b > 5 Spätausfälle (Korrosion, Erosion, Brüche bei spröden Materialien) In den nachfolgenden Darstellungen von Bild 16.1 und Bild 16.2 sind einige typische Kennwerte zur Weibull-Verteilung wiedergegeben, und zwar Ausfallverteilungsfunktion F(t) nach Gl. (16.1), hierzu komplementär ist die Überlebenswahrscheinlichkeit *) b T t exp ) t ( R , (16.2) Ausfallwahrscheinlichkeitsdichte b 1 b T t exp T t T b dt ) t ( dF ) t ( f , (16.3) Ausfallrate bzw. Ausfallanfälligkeit (englisch: hazard function) 1 b T t T b ) t ( F 1 ) t ( f ) t ( . (16.4) Wie die umseitige Diskussion der Weibull-Funktion zeigt, ist diese über dem Formparameter b sehr anpassungsfähig und umfasst auch die Normalverteilung bzw. die Log-Normalverteilung. Die Auftragung ist die Spur der Medianwerte / VDA 00/ , d. h., mit P A = 50 % wie im Bild 16.3 hervorgehoben. *) Anmerkung: In der Mathematik wird die Exponentialfunktion vereinfacht als e x = exp (x) geschrieben. 190 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 179 Bild 16.1: Ausfallwahrscheinlichkeitsdichte f(t) der Weibull- Verteilung nach / BERT 04/ ; ab b = 3,44 ist WBV identisch der NV. Bild 16.2: Ausfallrate (t) der Weibull-Verteilung (s. auch abschnittsweiser Zusammenbau der „Badewannen-Kurve“) nach / BERT 04/ Bild 16.3: Medianwerte-Auftragung der WB-Funktion 16 Versuchsdatenanalyse 191 180 Weitere Kenngrößen der Weibull-Verteilung / WILK 04/ sind: 10 t -Lebensdauer 10 B -Lebensdauer *) , bis zu der 10 % der betrachteten Einheiten ausgefallen sind (bzw. die 90 % der Einheiten überleben); sie wird vielfach auch als „Nominelle Lebensdauer“ bezeichnet b 1 b 1 10 1054 , 0 T 1 , 0 1 1 n T t , (16.5) 50 t -Lebensdauer 50 B -Lebensdauer, bis zu der 50 % der betrachteten Einheiten ausgefallen sind b 1 b 1 50 6931 , 0 T 5 , 0 1 1 n T t , (16.6) mittlere Lebensdauer der betrachteten Stichprobe, näherungsweise auch Erwartungswert der Grundgesamtheit T a mit b 1 1 a , (16.7) Standardabweichung der Stichprobe bzw. Näherung für die Grundgesamtheit T d mit 2 1 2 b 1 1 b 2 1 d . (16.8) Hierin bezeichnet ] [ die so genannte vollständige Gammafunktion nach Gauß. *) Anmerkung: In vielen Fällen wird im Maschinen- und Fahrzeugbau die 10 B -Lebensdauer von rotierenden Komponenten (Wellen, Zahnräder, Rotoren etc.) gesucht. Aus der Lebensdauerrechnung sind dann die 10 t -Lebensdauern (oder 10 N -Lebensdauern) wie folgt umzurechnen: h min 1 n h min 60 t B 10 10 . Mathematische Herleitung der 10 t -Lebensdauer aus der Ausfallfunktion: b 1 b 1 b 1 b b T t F 1 1 n T t F 1 n T R n T t , T t R n , e t R , 192 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 181 16.3 Dreiparametrige Weibull-Verteilung Das mögliche Auftreten einer ausfallfreien Zeit (threshold) wird bekanntlich in der Weibull- Funktion durch den weiteren Parameter o t berücksichtigt. Danach kann die erweiterte mathematische Formulierung angegeben werden: b o o t T t t exp 1 ) t ( F , o t t , o t T , o b (16.9) oder mit der Transformation * o t t t bzw. * o T t T kann formal wieder die zweiparametrige Formulierung hergestellt werden: b * * T t exp 1 ) t ( F , mit b , t T T o * . (16.10) Diese Funktion ist in einem „ebenen“ Papier gut auswertbar. Der o t -Parameter hat weiter die folgende Charakteristik: • o t : Ausfallfreie Zeit oder Mindestlebensdauer Vor dem Zeitpunkt o t ist kein Ausfall möglich. Ein Wert 0 t o ist typisch bei vielen Standard-Maschinenelementen, wenn der Ausfall erst nach einer gewissen Zeit eintritt. Dann bedeutet o t eine Mindestlebensdauer (z. B. 10 o t 4 , 0 3 , 0 t ). Da o t nur eine Verschiebung der Verteilung auf der Zeitachse bedeutet, ist auch eine zweiparametrige Darstellung möglich. Dies muss auch bei der Abtragung im Lebensdauernetz berücksichtigt werden, wie später noch gezeigt werden wird. 16.4 Lebensdauernetz Die Auswertung von Lebensdauerfunktionen erfolgt in der Praxis mit Hilfe von Lebensdauernetzen. Im vorliegenden Fall der Weibull-Verteilung im n -normalen Wahrscheinlichkeitsnetz. Hierbei ist zunächst zu beurteilen, ob eine Stichprobe überhaupt aus der Grundgesamtheit der unterstellten Verteilung stammt. Dies ist dann gegeben, wenn die erfassten Messwerte durch eine Gerade im Lebensdauernetz ausgeglichen werden können. Erst wenn dies gegeben ist, ist eine Weibull-Auswertung zulässig. 16 Versuchsdatenanalyse 193 182 16.4.1 Darstellung im Lebensdauernetz Voraussetzung einer Weibull-Auswertung ist somit ein besonders skaliertes Wahrscheinlichkeitspapier, dessen mathematische Herleitung hier kurz beschrieben werden soll. Ausgangsgleichung ist die Ausfallwahrscheinlichkeit b T t e 1 ) t ( F . Diese Gleichung wird nunmehr umgestellt und zweimal logarithmiert: a) ) t ( F 1 1 e b T t b) ) t ( F 1 1 n e n u e n 1 u mit der Substitution b T t u folgt ) t ( F 1 1 n n u n bzw. y c x ) t ( F 1 1 n n T n b t n b c) man erhält dann die bekannte Geradengleichung c x b y . (16.11) Aussage dieser Umformung ist also, dass die Weibull-Ausfallfunktion F(t) in einem doppeln -normierten Wahrscheinlichkeitspapier eine Gerade ergibt, wobei der Formparameter b die Steigung der Ausgleichsgeraden darstellt. Im Folgenden ist das Formblatt der DGQ (18-188) abgebildet, das den vorherigen Zusammenhang abbildet. Das DGQ-Formblatt wird gewöhnlich im gesamten Maschinen- und Fahrzeugbau benutzt. Merkmal ist jeweils die Fixierung von 2 Polen und separate Skalen für den Mittelwert (Erwartungswert), die Standardabweichung und den Formparameter. 194 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 183 Bild 16.4: DGQ-Formblatt mit Auswertepole 16 Versuchsdatenanalyse 195 184 16.4.2 Parameterbestimmung im Lebensdauernetz Das Lebensdauernetz ist so aufgebaut, dass die Parameter T und b der Ausfallbzw. inversen Überlebensfunktion, wie im Bild 16.5 skizziert, direkt abgelesen werden können. Charakteristische Lebensdauer T Schnittpunkt der Horizontalen bei der Ausfallwahrscheinlichkeit F(T) = 63,2 % mit der fallspezifischen Geraden; nach unten abgelotet ergibt sich die Lebensdauer *) t = T. Formparameter b Parallelverschieben der Geraden durch den Pol 1; Ablesen von b am Schnittpunkt mit der rechten Randskala. (Der Sonderfall b = 1 ist in den Vordrucken regelmäßig eingezeichnet.) 16.5 Auswertung vollständig erfasster Lebensdauern Eine Zuverlässigkeitsprognose basiert auf ermittelten Daten, die entweder aus einem Versuchslos oder aus Felddaten gewonnen worden sind. Im Folgenden soll zunächst der Fall betrachtet werden, dass die Lebensdauern aller Einheiten eines Loses bzw. einer Stichprobe bis zum Ausfall geprüft worden sind, man spricht demzufolge von „vollständig erfassten Lebensdauern“. *) Anmerkung: F(T) = 1 - 1 e = 0,632 Bild 16.5: Bestimmung der Weibull- Parameter (T, b) im normierten Wahrscheinlichkeitspapier 196 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 185 1 2 3 n n-1 Lebensdauer t Einheiten X X X X XX X vollständig erfasste Lebensdauer unvollständig erfasste Lebensdauer, d. h. das Objekt lebt weiter Zeitlimit Bild 16.6: Verteilung der Lebensdauern eines Versuchsloses vom Umfang n mit Ausfällen und überlebenden Komponenten/ Systemen In der Praxis tritt jedoch auch häufig der Fall ein, dass nicht alle Einheiten bis zum Versagensausfall geprüft werden können. Demgemäß spricht man von „unvollständig erfassten Lebensdauern“. Bei der Auswertung sollten diese aber nach Möglichkeit mitberücksichtigt werden, weil sich hieraus weitere Informationen gewinnen lassen. Aufbereitung der Daten und Ermittlung der Häufigkeitssummen Im Lebensdauernetz können Schätzwerte für die Parameter der Weibull-Verteilung grafisch gewonnen werden. Dazu benötigt man Häufigkeitssummen üj H als Schätzungen für die Ausfallwahrscheinlichkeit F(t). Bei der Auswertung ist zu unterscheiden zwischen Stichprobenumfängen 30 n und n > 30 Einheiten *) nach DGQ (Deutsche Gesellschaft für Qualität), die entweder als Einzelwerte oder klassiert ausgewertet werden können. I. 5 < n < 30 geprüfte Einheiten Ein Stichprobenumfang n sollte möglichst nicht kleiner als 5 Werte sein, da darunter keine statistisch abgesicherten Ergebnisse zu erzielen sind. Hingegen ist mit 30 Prüflingen schon eine sehr gute Absicherung möglich. Liegen nun n Lebensdauerwerte vor, so sind diese zweckmäßigerweise der Größe nach aufsteigend (min. max.) zu ordnen und mit Rängen j = 1, 2, ..., n zu versehen. Die relativen Häufigkeitssummen üj H zu den Rängen liegen tabelliert (s. Anhang) vor oder können einfach ermittelt werden. Ein guter Näherungswert für Weibull-verteilte Werte kann aus der umseitigen Gleichung (so genannte „Benard-Näherung“) gewonnen werden: *) Anmerkung: Im VDA Bd.3 wird die Grenze auf 50 Einheiten hochgesetzt. 16 Versuchsdatenanalyse 197 186 mit % 100 4 , 0 n 3 , 0 G H j üj (16.12) II. n > 30 geprüfte Einheiten Für mehr als 30 Lebensdauerwerte und für klassierte Werte berechnet man die relativen Häufigkeitssummen in der Regel mittels der Gleichung % 100 n G H j üj (16.13) Werden insbesondere Lebensdauern klassiert, so ist die Anzahl der Klassen *) näherungsweise zu n k zu wählen. Die Klassenanzahl sollte sich dann zwischen 5 und 20 bewegen. Zweckmäßig ist es, die Klassengrenzen so festzulegen, dass sich einfache Zahlen ergeben. Die gemessenen Lebensdauern werden dann in die Klassen einsortiert, wobei die Regel vereinbart ist, dass Lebensdauern, die genau auf die Klassengrenze fallen, der unteren Klasse zuzuordnen sind. III. Kenngrößenauswertung Bei Einzellebensdauern werden die abgelesenen oder abgeschätzten Häufigkeiten üj H über den sortierten Lebensdauern j t (min. max.) aufgetragen. Entsprechend sind bei klassierten Lebensdauern die Häufigkeiten üj H der Klassen über den Klassenobergrenzen aufzutragen. Die Häufigkeiten stellen zunächst einzelne Punkte im Lebensdauernetz dar. Diese müssen weiter durch eine Gerade ausgeglichen werden. Hierbei sind vorzugsweise die Werte zwischen 5 % und 95 %, d. h. der Mittelbereich, zu berücksichtigen. *) Anmerkung: In der Praxis wird zur Bestimmung der Klassenbreite vielfach auch die Formel von „Sturges“ benutzt: ) n log( 32 , 3 1 1 k ) t ( F H j üj Schätzwert für Ausfallhäufigkeit j = Rang der j-ten Lebensdauer, j G = absolute Häufigkeitssumme der j-ten Lebensdauer; bei Einzelwerten ist j G = j, n = Anzahl der Lebensdauerwerte für Einzelwerte j G = j für klassierte Werte j G = absolute Häufigkeitssumme der j-ten Klasse (summierte Besetzungszahl) j = Rang der Klassen 1 bis k 198 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 187 Können die Häufigkeiten nicht durch eine Gerade ausgeglichen werden, so können die Parameter T, b nicht sinnvoll geschätzt werden, weil die Voraussetzung von „Weibull-verteilten Lebensdauern“ nicht erfüllt ist. IV. Weitere Kenngrößen Neben der charakteristischen Lebensdauer T und dem Formparameter b (Ausfallsteilheit) können im Lebensdauernetz weitere relevante Größen bestimmt werden. Im Maschinenbau interessieren t 1o% = Schätzwert, bis zu dem 10 % der Einheiten ausgefallen sind, t 50% = Schätzwert, bis zu dem 50 % der Einheiten ausgefallen sind. Bild 16.7: Bestimmung von Lebensdauergrenzwerten im Weibull-Papier Im Fahrzeugbau operiert man gewöhnlich mit B 5% - und B 50% - Lebensdauern im Lkw-Bereich, B 10% - und B 50% -Lebensdauern im Pkw-Bereich. V. Mittlere Lebensdauer (Erwartungswert) und Standardabweichung Meist ist die Weibull-Funktion keine symmetrische Funktion, d. h., es gibt einen Unterschied zwischen der 50 t -Lebensdauer (arithmetischer Mittelwert aus den erreichten Lebensdauern) und dem mathematischen Mittelwert als -Lebensdauer 16 Versuchsdatenanalyse 199 188 (Lebensdauerwert der am häufigsten erreicht wurde). Beide Werte und auch die Standardabweichung können im Weibull-Papier ermittelt werden. Die grafische Konstruktion verläuft wie nachfolgend beschrieben: Verschieben der Ausgleichsgeraden in den Pol 2, somit können mithilfe der oberen Randskalen die Größen F und F abgelesen werden. F mit der Ausgleichsgeraden F(t) auf der Zeitachse. abweichung (Streuung). Bild 16.8: Bestimmung von Erwartungswerten und Streuung der Lebensdauer Mit der charakteristischen Lebensdauer T und dem Formparameter b kann man Schätzwerte für den Erwartungswert und die Standardabweichung mit der zuvor schon eingeführten Gamma-Funktion auch berechnen: T ) ( a ˆ und T d ˆ 2 . Die Werte für a und d können gewöhnlich Tabellen für die Weibull-Funktion entnommen werden. Im DGQ-Band 17-26 und in der DIN EN 61649 ist jeweils ein An- 200 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 189 hang mit Tabellen, hier werden Erwartungswerte und Standardabweichung in Abhängigkeit vom Formparameter b aufgelistet. Zur Anwendung der vorstehenden Beziehungen sollen jetzt zwei charakteristische Beispiele (Einzelwertauswertung und Klassierung) dienen, die auch die allgemeine Vorgehensweise zeigen sollen. 16 Versuchsdatenanalyse 201 190 Beispiel Mittels eines Prüfstandversuchs (s. auch / DGQ 95/ ) wurden 8 Geberzylinder *) für eine hydraulische Kupplungsbetätigung einem Standzeitversuch (d. h. Lastwechselprüfung bis Funktionsausfall) unterzogen. Die der Größe nach geordneten Belastungswechsel (= Lebensdauern) bis zum Ausfall der Zylinder sind in der folgenden Tabelle aufgelistet. Die Häufigkeitssumme wird wie folgt angesetzt: 100 4 , 0 n 3 , 0 j H üj . Für die Datenauswertung sind die Messergebnisse stets von Min. nach Max. aufsteigend zu sortieren. Rang Einzelwerte Anzahl der Ausfälle absolute Häufigkeitssumme relative Häufigkeitssumme j j t j n j G üj H (%) 0 Lastwechsel - 0 0 min 1 200.000 1 1 2 290.000 1 2 3 490.000 1 3 4 540.000 1 4 5 790.000 1 5 6 980.000 1 6 7 1.100.000 1 7 max 8 1.350.000 1 8 Ausgewertet werden sollen exemplarisch: Charakteristische Lebensdauer: Tˆ = Formparameter: bˆ = 10 t -Lebensdauer: 10 t ˆ = 50 t -Lebensdauer: 50 t ˆ = Erwartungswert: ˆ = Standardabweichung: ˆ = Die tabellierten Werte sind entsprechend im Lebensdauernetz einzutragen und dann zu interpretieren. *) Anmerkung: Der Geberzylinder ist als mechanisches System zu betrachten und besteht aus: Kolben, Dichtungen, Mantelrohr etc. Ausfall tritt durch übermäßigen Verschleiß ein. 202 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 191 16 Versuchsdatenanalyse 203 192 Beispiel In einem Feldversuch wurden 55 Pkw-Reifen (s. auch / DGQ 95/ ) bis zum Ausfall betrieben, wobei die Lebensdauern als Fahrleistungen in km ermittelt wurden, bis eine Mindestprofiltiefe erreicht ist. Die niedrigste Lebensdauer wurde mit km 200 . 1 t min und die höchste Lebensdauer mit km 000 . 83 t max festgelegt. Die Anzahl der ausgefallenen Reifen zur jeweiligen Laufleistung wurde ebenfalls erfasst. Für das Problem ist eine Klassierung erforderlich: - Die Klassierung ergibt: Anzahl der Klassen 7 55 n k ; - Klassenbreite: 685 . 11 7 200 . 1 000 . 83 k t t w min max km gewählt w = 12.000 km. - Die Häufigkeitssumme ist nach der folgenden Formel zu berechnen: % 100 n G H j üj bzw. in Software auch % 100 4 , 0 n G H j üj . Klasse Klassenobergrenzen Anzahl der Ausfälle absolute Häufigkeitssumme relative Häufigkeitssumme j j t j n j G üj H (%) 0 km - 0 0 *) 1 12.000 4 4 2 24.000 6 10 3 36.000 9 19 4 48.000 5 24 5 60.000 8 32 6 72.000 12 44 7 84.000 11 55 *) Ausgewertet werden sollen: Charakteristische Lebensdauer: Tˆ = Formparameter: bˆ = 10 t -Lebensdauer: 10 t ˆ = Erwartungswert: = Streuung: = *) Anmerkung: 0 H = 0 %- und üj H = 100-%-Werte werden als ideale Werte bei der grafischen Auftragung nicht ausgeglichen. 204 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 193 16 Versuchsdatenanalyse 205 194 16.6 Mischverteilungen Zeigen sich wie im Bild 16.9 bei den aufgetragenen Lebensdauern bzw. Häufigkeitssummen im Lebensdauernetz nur abschnittsweise lineare Verläufe, so liegt eine Vermischung von Weibull-Verteilungen vor. Typische Beispiele hierfür seien die folgenden beiden Verläufe vom Prinzip her. Bild 16.9: Mischverteilungen mit zwei unterschiedlichen Ausfallmechanismen Kann somit nach dem Verlauf der Ausgleichsgeraden auf eine Mischverteilung geschlossen werden, so bedeutet dies, dass unterschiedliche Mechanismen zu den Ausfällen beigetragen haben. Die Auswertung sollte dann getrennt für jeden Ausfallmechanismus erfolgen. Hierzu sind die Ausfälle durch Analysen den einzelnen Mechanismen zuzuordnen. Ist eine Trennung der Ausfälle nach Mechanismen nicht möglich, so sollte auf die Schätzung der Verteilungsparameter T, b verzichtet werden. Quantile (wie z. B. 10 t , 50 t etc.) können jedoch abgelesen werden. 16.7 Berücksichtigung der ausfallfreien Zeit Zeigt sich im Lebensdauernetz ein konkaver Verlauf der Punktfolge, so kann daraus geschlossen werden, dass der Ausfallmechanismus durch eine dreiparametrige Weibull- Verteilung mit den Parametern o t , T, b besser beschrieben werden kann. Durch Subtraktion der Konstanten o t kann die Lebensdauerkurve dann linearisiert werden. Liegt insbesondere ein großer Formparameter b vor, so kann wegen der schwachen Krümmung der Verteilungskurve die dreiparametrige Form und damit o t nicht immer sofort erkannt werden. 206 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 195 Die Konstante o t kann dann näherungsweise durch Extrapolation der konkaven Kurve auf die Zeitachse bestimmt werden. Ist dies nicht eindeutig möglich, so kann o t auch direkt gleichgesetzt werden mit der Lebensdauer der ersten ausgefallenen Einheit. Eine weitere Möglichkeit besteht in der rechnerischen Abschätzung von o t durch die vielfach benutzte Formel von Dubey *) , dazu wird auf der Kurve eine Stützstelle ( Bild 16.10: Ausfallverhalten mit ausfallfreier Zeit (Ansatz von Dubey, s. / BERT 04/ ) Im Weiteren wird von der Transformation (s. auch Kapitel 16.3) Gebrauch gemacht, und von den Lebensdauern t wird o t subtrahiert. Die Häufigkeiten sind demgemäß auch über t o t aufzutragen. Ansonsten kann das Problem wie vorstehend behandelt werden. *) Anmerkung: In der Literatur bzw. in Softwareprogrammen wird die ausfallfreie Zeit mit der Formel von Dubey bestimmt: 1 2 2 3 1 2 2 3 2 o t t t t t t t t t t . 16 Versuchsdatenanalyse 207 196 Beispiel In einem Lebensdauerversuch / DGQ 95/ an Hochgeschwindigkeitsantrieben von Textilmaschinen wurden nachfolgende Lebensdauern ermittelt. Die Ausgleichung der Punkte im Lebensdauernetz ergibt eine konkave Kurve. Es ist auf Grund des technischen Sachverhaltes bekannt, dass eine Mindestlebensdauer vorliegt. Zur Beschreibung des Versuchsergebnisses wird deshalb die dreiparametrige Weibull-Verteilung verwendet. (Durch Verlängern der Ausgleichskurve auf die Abszisse kann o t abgeschätzt werden.) Rang Einzelwerte Transformation Anzahl der Ausfälle absolute Häufigkeitssumme relative Häufigkeitssumme j t o j t t j n j G üj H in % 0 h o t = - 0 0 1 42 1 2 50 1 3 55 1 4 60 1 5 65 1 6 70 1 7 75 1 8 80 1 9 83 1 10 90 1 11 91 1 12 95 1 13 100 1 14 110 1 15 115 1 16 120 1 17 130 1 18 140 1 19 152 1 20 170 1 Von den Lebensdauern j t muss o t subtrahiert werden, und die Auswertung mit den transformierten Daten ist sodann zu wiederholen. Die Punkte können nun durch eine Gerade ausgeglichen werden. Aus dem Lebensdauernetz liest man für die transformierten Daten die folgenden Kenngrößen ab: Charakteristische Lebensdauer: o * t Tˆ Tˆ = Formparameter: bˆ bˆ * = 208 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 197 Durch Addition von o t zu * Tˆ erhält man Schätzwerte für die Parameter der dreiparametrigen Weibull-Verteilung zu o t = Tˆ = bˆ = Dieses Beispiel zeigt aber auch die Problematik bei der Auswertung mit der dreiparametrigen Weibull-Verteilung. Wäre auf Grund der technischen Randbedingungen (wälzgelagerte Antriebswelle) nicht bekannt, dass eine Mindestlebensdauer vorliegt, so könnte man das Versuchsergebnis durchaus auch mit der zweiparametrigen Weibull-Verteilung beschreiben, wenn man der Faustregel „Werte zwischen 5 % und 95 % bei der Ausgleichung stärker zu berücksichtigen“ befolgt. 16 Versuchsdatenanalyse 209 198 210 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 199 16.8 Vertrauensbereich einer Weibull-Verteilung 16.8.1 Unsicherheitsband Für die bisherigen Weibull-Auswertungen wurde die 50%-Ausgleichsgerade genutzt. Diese lässt natürlich nur Aussagen mit P A =P Ü =50% (ähnlich wie bei der Wöhlerlinie) zu. In vielen Fällen möchte man die Aussagegenauigkeit (das Unsicherheitsband) jedoch enger eingrenzen. Diese Problemstellung kann mit der Interpolation von „Kolmogoroff-Smirnoff“ beantwortet werden. Mit diesem Test wird ein 90-%-Vertrauensbereich für zu erwartende Werte (gleiche Prüfprozedur, gleiche Ausführung der Prüflinge) aufgespannt. Die 95-%-Vertrauensgrenze besagt, dass nur 5 % der Prüflinge die zu erwartende Lebensdauer nicht erreichen werden; entsprechend folgt aus der 5-%-Vertrauensgrenze, dass etwa 5 % der Prüflinge diese Grenze überschreiten werden. Bild 16.11: Konstruktion des 90-%-Vertrauensbereichs zu einer WBF Zur Ableitung der Vertrauensgrenzen gehört, dass die 5-%bzw. 95-%-Werte nicht über den j t -Werten selbst, sondern von der Ausgleichsgeraden abgetragen werden, wie in der Auftragung im Bild 16.11 angedeutet worden ist. Die Grenzwerte sind entsprechenden Grenzkurven-Tabellen (s. Anhang) zu entnehmen. Beispiel Umseitig ist für einen kleinen Datensatz von 8 Werten / DGQ 95/ exemplarisch der Vertrauensbereich abgeleitet worden. Innerhalb dieser Grenzen werden mit 90 % Wahrscheinlichkeit bei einer Testprozedur die Ausfälle auftreten. Der Vertrauensbereich gibt somit in einigen Fällen eine wichtige Zusatzinformation zur Beurteilung der Lebensdauer und Zuverlässigkeit. 16 Versuchsdatenanalyse 211 200 212 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 201 16.8.2 Vertrauensbereich für Schadensanalyse Im statistischen Sinne stellt der im Weibull-Papier abgelesene Formparameter „b“ nur einen Schätzwert aus einer Stichprobe dar und ist je nach Größe der Stichprobe mehr der weniger sicher. Weil aber in der Praxis der Formparameter die entscheidende Größe zur Lokalisierung der Versagensursache ist, sollte der Wert hinreichend abgesichert sein. Mit einem geeigneten statistischen Test ist zu prüfen, ob der ermittelte b-Wert in das folgende zweiseitige Konfidenzintervall fällt, bzw. wie groß dieses Intervall wird: o u b b b bzw. A b o A b u P F b b b P F b b . Ein weiteres Kriterium für die Aussagegüte ist, dass der ermittelte Formparameter b nicht zu weit von seinen Konfidenzgrenzen entfernt liegen sollte. Der Faktor b F kann zu verschiedenen Aussagewahrscheinlichkeiten im Bild 16.12 abgelesen werden. Beispiel In einer Weibull-Analyse wurden n = 10 Werte verarbeitet; aus diesen wurde ein Formparameter b = 1,6 ermittelt. Die Frage ist somit: Wie sicher ist dieser Wert? Für ein A P = 90 % (zweiseitiger) Vertrauensbereich ergeben sich mit 37 , 1 F b die folgenden Grenzwerte: 17 , 1 37 , 1 6 , 1 F b b b u , 37 , 1 6 , 1 F b b b o = 2,19 19 , 2 b 17 , 1 (ist erfüllt). Entsprechend kann auch ein einseitiger Test zu A P = 95 % durchgeführt werden: 10 , 1 45 , 1 6 , 1 b b u . 16 Versuchsdatenanalyse 213 202 Vertrauensbereiche des Formparameters b für verschiedene Aussagewahrscheinlichkeiten A P Bild 16.12: Vertrauensbereichsfaktoren nach / VDA 16/ Anmerkung: Je größer der Stichprobenumfang wird, je genauer wird b werden, d. h. 0 , 1 F b 214 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 203 16.8.3 Mindestversuchsumfang nach Weibull Aus der Ausfallsummen-Häufigkeitsverteilung 4 , 0 n 3 , 0 j ) t ( F kann durch mathematische Umformung (j = 1, d. h. Beginn des ersten Ausfalls) 4 , 0 ) t ( F 3 , 0 1 n der minimale Versuchsumfang *) abgeschätzt werden. Im statistischen Sinne ist diese Umformung aber nicht ganz korrekt, da die Grenzkurven leicht variieren. Die zuvor gemachte Abschätzung setzt voraus, dass kein Prüfling vor Erreichen der P Ü -95- %-Grenze ausfällt. Eine weitere Schwäche der Weibull-Abschätzung ist, dass kein Vertrauensbereich existiert, sondern nur eine einseitige Vertrauensgrenze. Nach dem VDA- Regelwerk sollte jedoch ein 90-%-Vertrauensbereich eingehalten werden. In der Tabelle sind dementsprechend noch die Mindestversuchsumfänge zu einem 90-%-Vertrauensbereich eingetragen. *) Anmerkung: min. Stückzahlen: 14 4 , 0 05 , 0 7 , 0 n , 7 4 , 0 1 , 0 7 , 0 n 5 10 (aufgerundet 15) Lebensdauer: B 5 = Lkw’s , B 10 = Pkw’s min n mit 95 % Ü P min n nach VDA mit 95 %/ 5 % Ü P 10 B 7 7 5 B 14 15 3 B 23 50 1 B 70 100 Bild 16.13: Versuchsumfang zur Absicherung einer Mindestlebensdauer 16 Versuchsdatenanalyse 215 204 16.9 Sudden-Death-Prüfung Ein häufig benutzter Zeitraffungsversuch stellt die Sudden-Death-Prüfung *) mit Stücklimit dar, die etwa bei folgender Gelegenheit eingesetzt werden kann. Anwendung: Im Rahmen einer Entwicklung sollen möglichst schnell Erkenntnisse über die Zuverlässigkeit von Einheiten mit geringem Versuchsaufwand gewonnen werden. Hierfür eignet sich das folgende verkürzende Prüfverfahren: Prozedur: Eine für einen Test vorgesehene Stichprobe vom Umfang n wird in eine Anzahl r gleich großer Prüflose (etwa 5 bis 10) aufgeteilt. Die Anzahl hängt in der Regel von den vorhandenen Einzelprüfeinrichtungen (d. h. k = r oder mehr) einer Mehrfachprüfmaschine ab. Die m-Teile jedes Prüfloses i r werden dann unter gleichen Bedingungen so lange getestet, bis ein Teil in jedem Prüflos ausgefallen ist. Nur diesem ersten Ausfall aus dem Prüflos wird der erreichte Wert des Lebensdauermerkmals (z. B. Lastwechsel) zugeordnet. Der Rest des Prüfloses wird nicht weiter geprüft. Sämtliche i r -Prüflose werden nun nacheinander diesem Verfahren unterzogen. Man erhält so k-Prüfwerte, die den jeweils kleinsten Lebensdauerwert eines Prüfloses darstellen. Die Lebensdauermerkmale gilt es weiter in aufsteigender Reihenfolge zu ordnen und unter Berücksichtigung der nicht schadhaften Einheiten auszuwerten. Gewöhnlich wird hierzu wieder das Verfahren von Johnson herangezogen. Stichprobe: 1, ..., n-Teile Plätze k: 1 r bis k r Prüflos i r : 1 , ... 3, m-Teile Ausfall immer 1 , i r t Anordnung der Ausfälle: min max. Zusammenfassend lassen sich als sinnvolle Anwendungen für das Sudden-Death-Testing umreißen: Verkürzung von Prüfdauern bei Prüfstandversuchen (unter möglichst gleich bleibenden Prüfbedingungen), Prüfungen mit Stücklimit, wobei die Anzahl der Prüfplätze kleiner als der vorgesehene Stichprobenumfang ist, wenn aus technologischen Gründen (z. B. bei Klimaprüfungen) nur in Prüfgruppen getestet werden kann. Das Sudden-Death-Verfahren liefert im Allgemeinen mehr Informationen über die Lebensdauerverteilung als eine einfache Prüfung mit Stücklimit bei gleicher Anzahl ausgefallener Einheiten. *) Anmerkung: Sudden-Death-Test = Plötzlicher Todesfälle-Test 216 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 205 Das Verfahren ist unter Nutzung der vorherigen Prinzipien leicht anwendbar. Bild 16.14: Darstellung des Sudden-Death-Tests im Weibull-Papier nach / VDA 16/ Die Theorie besagt, dass bei gleichem Verhalten die Steigungen der Ausgleichsgeraden b gleich sein müssen. Damit ergibt sich die folgende Konstruktion: Eintragung der Ausgleichsgeraden für die 1. Ausfälle, Annahme, dass 50 B (= Median) repräsentativ ist für alle Ausfälle, 50 B senkrecht loten und zum Schnitt bringen mit 1 F * 4 , 5 / 7 , 0 (bei m = 5), entspricht 9 , 12 B -Linie, durch den Schnittpunkt die Parallele für die gesamte Stichprobe ziehen. Eine bessere Approximation der Median-Verteilung ermöglicht aber das Verfahren von Johnson/ Nelson, welches am umseitigen Beispiel noch einmal angewandt werden soll. *) Anmerkung: % 9 , 12 100 4 , 5 7 , 0 100 4 , 0 m 3 , 0 1 F 1 16 Versuchsdatenanalyse 217 206 Beispiel Für eine Neuentwicklung soll die charakteristische Lebensdauer / DGQ 95/ ermittelt werden. Dazu können 50 Einheiten nach der Sudden-Death-Methode gleichzeitig auf 10 Versuchsplätzen einer Testanlage getestet werden. Zweckmäßigerweise werden dazu Gruppen zu 5 Einheiten gebildet. Jede Prüfgruppe wird bis zum Ausfall einer Einheit geprüft. Die ermittelten Lebensdauerwerte charakterisieren somit die Verteilung der ersten Ausfälle. Gemäß der vorstehenden Konstruktion kann dann auch die Ausgleichsgerade für das ganze Prüflos konstruiert werden. Rang Einzelwerte Transformation Anzahlder Ausfälle Anzahlder unvollständig erfasstenLebensdauern Bestand Inkrementfür unvollständig erfassteLebensdauern absolute Häufigkeitssumme relative Häufigkeitssumme j j t 0 j t t j n j B j G j G üj H in % 0 h t 0 = 0 h - n = 50 - 0 0 1 365 1 50 1,000 1,000 1,39 365 4 49 2 520 1 45 1,087 2,087 3,55 520 4 44 3 630 1 40 1,193 3,280 5,91 630 4 39 4 715 1 35 1,326 4,606 8,54 715 4 34 5 920 1 30 1,497 6,103 11,51 920 4 29 6 975 1 25 1,727 7,830 14,94 975 4 24 7 1030 1 20 2,056 9,886 19,02 1030 4 19 8 1130 1 15 2,570 12,456 24,12 1130 4 14 9 1350 1 10 3,504 15,960 31,07 1350 4 9 10 1430 1 5 5,840 21,800 42,66 1430 4 4 Mit einem Pfeil ( ) sind die Lebensdauerdaten markiert worden, die als unvollständige Werte angesehen werden können, d. h., die Einheiten sind nicht ausgefallen. Aus der grafischen Auswertung kann die Verteilung der „ersten Ausfälle“ ermittelt werden. Die Median- Verteilung ergibt sich aus der Verschiebung mit den folgenden Werten: Charakteristische Lebensdauer Tˆ = Formparameter bˆ = 10 t -Lebensdauer 10 t ˆ = Zweckmäßigerweise erfolgt die Auswertung nach dem Verfahren von Johnson/ Nelson. 218 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 207 16 Versuchsdatenanalyse 219 208 Aus der grafischen Auswertung kann die Verteilung der „ersten Ausfälle“ ermittelt werden. Die Median-Verteilung ergibt sich aus der Verschiebung mit den folgenden Werten: Charakteristische Lebensdauer Tˆ = Formparameter bˆ = 10 t -Lebensdauer 10 t ˆ = Diskrete Auswertung nach Johnson/ Nelson: % 100 . 4 , 0 n 3 , 0 G H j üj , mit G j . n j G G 1 j j und B j 1 G 1 j n 1 G j j=1: Startwerte G 0 = 0, n j = n 1 =1; B 1 = 50, n = 50 G1= 1 50 1 0 50 1 , 1 1 1 0 G 1 und somit H 1 ü = % 39 , 1 100 . 4 , 50 3 , 0 1 . j=2: Startwerte 1 G 1 , n 2 =1; B 2 = 45, n=50 087 , 1 46 50 45 1 1 50 1 G 2 , G 2 =1+1 und somit % 55 , 3 100 . 4 , 50 3 , 0 087 , 2 H 2 ü . 220 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 209 17 Testplanung für einen Zuverlässigkeitsnachweis Die häufigste Problemstellung in der Praxis ist die Frage nach dem kleinsten Prüflos (minimale Anzahl von Prüflingen) und der notwendigen Prüfzeit bei Lebensdauerversuchen. Unter der Annahme eines „vollständigen Tests“, d. h., alle Prüflinge sollen einen Test bis zum Ende durchlaufen, können die folgenden Betrachtungen angestellt werden. 17.1 Nutzung der Weibull-Funktion (WBF) Unter Heranziehung der Weibull-Funktion kann nur eine grobe Schätzung für die notwendige Anzahl an Prüflingen (n = ? ) und der erforderlichen Prüfdauer ? t üfung Pr zu einer vorgegebenen Überlebenswahrscheinlichkeit ( Ü P = 95 % oder Ü P = 5 %, d. h., x % der Prüflinge erreichen diese Lebensdauer mindestens bzw. überschreiten diesen Wert) angestellt werden. Eine weitere übliche Annahme ist, dass kein Ausfall im Testlauf erwartet wird, demgemäß definiert man einen „Erfolgslauf“ oder „Success-Run“. Das Ergebnis ist eine grobe Abschätzung mit einer unscharfen Angabe zum Prüflos und daher nur beschränkt aussagefähig. Beispiel: Nachweis der B 10 -Lebensdauer bei einseitigem Vertrauensniveau (/ VDA 16/ ) Ein in einem Automobil einzubauendes Subsystem soll eine Zuverlässigkeit von R(100.000 km oder LW) = 0,9 (= 90 %) aufweisen, welche mit einer einseitigen Vertrauensgrenze von Ü P = 95 % *) nachzuweisen ist. Voraussetzung ist, dass von dem Subsystem bereits eine vollständige Weibull-Auswertung vorliegt. Das umseitige Bild 17.1 zeigt eine Weibull-Auswertung mit dem Median (50 %-Gerade) und dem 90 %-Vertrauensband mit ihrem prinzipiellen Verlauf. Aufgetragen ist auf der Ordinate die Ausfallwahrscheinlichkeit, d. h. F(t) = 1 - R(t). Abzulesen ist also bei 1 , 0 t F p , und zwar als Schnittpunkt mit Ü P = 95 % Vertrauensgrenze. Dies ist wie folgt zu interpretieren: Falls genau n = 29 Prüflinge (in der Weibull-Tabelle im Anhang für die 95-%-Vertrauensgrenze ist jene Spalte zu suchen, die für i = 1 ,d.h., genau ein Ausfall, eine geringere Ausfallwahrscheinlichkeit als 10 % liefert) die Prüfzeit km 000 . 100 t p ohne Ausfall erreichen, kann daraus abgeleitet werden, dass auch Teile aus einer Groß- oder Grundgesamtheit mit 95%iger Wahrscheinlichkeit diese Lebensdauergrenze überschreiten werden. Für eine verlässlichere Aussagen ist diese Auswertung aber zu unsicher, weshalb im Folgenden noch genauere Aussagen mit der Bayes-Statistik diskutiert werden sollen. *) Anmerkung: Im Weibullpapier werden jeweils die 95 % und 5 % Vertrauensgrenzen angegeben. P Ü = 95 % entspricht P A = 5 % und P Ü = 5 % entspricht P A = 95 %. 1 Einleitung 221 210 Bild 17.1: Testauswertung mit dem Vertrauensbereich der Weibull-Verteilung 17.2 Nutzung der Binominal-Verteilung (BV) Die Binominal-Verteilung wird in der deskriptiven Statistik bevorzugt dazu herangezogen, um gleichverteilte Zufallsereignisse zu analysieren. Vielfach wird die BV aber auch genutzt, um für einen bestimmten Test die notwendige Anzahl an Prüflingen zu bestimmen. Die Modellvorstellung hierfür ist: Es liegen n identische Prüflinge vor, die zum Zeitpunkt t alle die gleiche Zuverlässigkeit ) t ( R ) t ( R i (i = 1, ..., n) aufweisen. Für die Wahrscheinlichkeit, dass alle n Prüflinge einer Testreihe bis zur Zeit t überleben, gilt sodann nach dem „Produktgesetz“ die Wahrscheinlichkeit: n ges ) t ( R R . Interpretiert heißt dies: Wird bei der Prüfung einer Stichprobe vom Umfang n bis zum Zeitpunkt t (= geforderte Lebensdauer) kein Ausfall beobachtet und ist R(t) die Überlebenswahrscheinlichkeit (= Zuverlässigkeit) eines Prüfobjektes, welches die Wahrscheinlichkeit ist, dass ein Objekt bis zum Zeitpunkt t überlebt, so gilt für die ganze Stichprobe (Produktgesetz) gleich n ) t ( R . Anders kann dazu auch gesagt werden, dass die Wahrscheinlichkeit bis zum Zeitpunkt t mindestens einen Ausfall zu beobachten gleich 222 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 211 n Ü A ) t ( R 1 P 1 P (17.1) ist. Aus der Umkehrung dieser Überlegung lässt sich auch ableiten: Falls beim Test einer Stichprobe vom Umfang n bis zum Zeitpunkt t kein Ausfall vorgekommen ist, so ist mit der Aussagewahrscheinlichkeit A P die Mindestzuverlässigkeit R(t), somit gilt auch n 1 A P 1 ) t ( R (17.2) bzw. für die Größe des Prüfloses . ) t ( R n P 1 n n P 1 n n 1 ) t ( R n A A (17.3) Dieser Zusammenhang wird gewöhnlich als Erfolgslauf (Success-Run für die überlebenden Prüflinge) grafisch ausgewertet. Bild 17.2: Bestimmung des Stichprobenumfangs n zu einer Mindestzuverlässigkeit R(t) und einer bestimmten Aussagewahrscheinlichkeit nach / VDA 16/ 17 Testplanung für einen Zuverlässigkeitsnachweis 223 212 Beispiel: Abgesichertes Prüflos nach / VDA 00/ Durch ein Testprogramm soll eine Mindestzuverlässigkeit von R(100.000 LW) = 90 % mit % 95 P A abgesichert werden. Wie viele Prüflinge müssen den Test überleben? 4 , 28 9 , 0 n ) 95 , 0 1 ( n n , d. h., es sollten 28 besser 29 Prüflinge vorgesehen werden. Wenn die Stichprobe 28 Prüflinge umfasst, müssen alle den Test überleben. 17.3 Nutzung des Bayes’schen Ansatzes Bei den meisten statistischen Überlegungen wäre es hilfreich, wenn Vorwissen (a-priori oder a-posteriori) verwendet werden könnte. Mit dieser Problematik hat sich im 18. Jahrhundert Thomas Bayes beschäftigt und die Statistik erweitert. Bei den folgenden Ansätzen soll auf die sogenannte WEIBAYES-Theorie zurückgegriffen werden. 17.3.1 Bestimmung des Lebensdauerverhältnis Es ist bekannt, wie sich die Erhöhung und Verringerung der Prüfzeit p t auf den erforderlichen Stichprobenumfang auswirkt. Nach Weibull ist die Zuverlässigkeit zum Zeitpunkt t b T t exp ) t ( R . (17.4) Prüft man Objekte bis zur Zeit t t p , so ist entsprechend b p p T t exp t R . (17.5) Hieraus kann ein Lebensdauerverhältnis V L abgeleitet werden: b V b p p L t t ) t ( R n ) t ( R n (17.6) bzw. t t L p V (17.7) oder bei Auftreten einer ausfallfreien Zeit 224 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 213 o o p V t t t t L . (17.8) Für die Prüfzeit folgt somit o o V p t t t L t . (17.9) Hiermit lässt sich auch die vorstehende Gl. (17.2) erweitern zu n b V L 1 A P 1 ) t ( R . (17.10) 17.3.2 Annahmen von Bayes In dem Ansatz von Th. Bayes (engl. Mathematiker) wird unterstellt, dass die Lebensdauer im überwiegenden Nutzungsbereich eine gleichverteilte Zufallsgröße ist. Wenn diese Vorinformation genutzt wird, ist dies statistisch gleichbedeutend damit, dass der notwendige Stichprobenumfang um einen Prüfling reduziert werden darf. Überträgt man dies auf die vorstehenden Überlegungen, so muss im Umkehrschluss n durch n + 1 ersetzt werden, weil die Formeln schon den reduzierten Endzustand abbilden. Insofern gilt in der Bayes-Statistik *) 1 n A ) t ( R 1 P oder ) 1 n ( 1 A P 1 ) t ( R (17.11) bzw. mit der entsprechenden Erweiterung ) 1 n ( b V L A ) t ( R 1 P oder ) 1 n ( b V L 1 A P 1 ) t ( R . (17.12) Den folgenden beiden Diagrammen liegt der Bayes’sche Ansatz zugrunde. *) Anmerkung: In der Praxis ist es ausreichend, die (n + 1)-Information durch Abrunden des ermittelten n zu berücksichtigen. 17 Testplanung für einen Zuverlässigkeitsnachweis 225 214 Bild 17.3: Zuverlässigkeit in Relation zum Lebensdauerverhältnis und zum Stichprobenumfang (im Verschleißbereich) nach / VDA 00/ Bild 17.4: Zuverlässigkeit und Relation zum Lebensdauerverhältnis und zum Stichprobenumfang (im Übergangsbereich: Verschleiß zum Bruch) nach / VDA 00/ 226 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 215 Bild 17.5: Aussagewahrscheinlichkeit abhängig vom Lebensdauerverhältnis und zum Stichprobenumfang (im Verschleißbereich) nach / VDA 00/ Bild 17.6: Aussagewahrscheinlichkeit abhängig vom Lebensdauerverhältnis und zum Stichprobenumfang (im Übergangsbereich: Verschleiß zum Bruch) nach / VDA 00/ 17 Testplanung für einen Zuverlässigkeitsnachweis 227 216 Soll von der Annahme einer „gleichverteilten Lebensdauer“ nicht ausgegangen werden, so kann trotzdem der Bayes-Ansatz benutzt werden, wenn letztlich der Mindeststichprobenumfang um „eine“ Einheit (also auf n + 1) erhöht wird. Unter Nutzung des Bayes-Ansatzes sollen jetzt die folgenden Standardprobleme diskutiert werden. Beispiel: Bestimmung der Testlänge und des Probenumfangs nach / VDA 00/ Folgende Problemstellung ist oft von Interesse: Es soll ein Lebensdauertest für t = 40.000 km geplant werden, wobei Versagen im Verschleißb ist. Gesucht ist die wirtschaftlichste Versuchsführung (d. h. n = ? , ? L V ), die beispielsweise eine Zuverlässigkeit von R(t) = 80 % bei einer Aussagewahrscheinlichkeit von % 80 P A absichern kann. Unter Nutzung der Bayes-Diagramme gibt es zwei prinzipielle Lösungswege: Gemäß Bild 17.3 wird eine Ausfallwahrscheinlichkeit von % 80 P A und b = 2,0 (Verschleißschaden) angenommen. Der wirtschaftlichste Versuch ist n = 1 Probe (bzw. 1 Versuch), hierfür kann für R = 80 % das Lebensdauerverhältnis 9 , 1 L V abgelesen werden. Das heißt, für n = 1 beträgt die ausfallfreie Mindesttestlänge genau km 000 . 76 000 . 40 9 , 1 t L t V p . Die gleiche Aussage folgt aus Bild 17.5, jedoch aus einem anderen Kontext. Beispiel: Kostengünstigstes Versuchsprogramm nach / VDA 00/ Oft besteht die Möglichkeit, dass ein Ergebnis alternativ mit einem Prüfling ohne Ausfall oder mit zwei bis mehreren Prüflingen ohne Ausfall erzeugbar ist. Hierzu sei folgende Problemstellung angenommen: Es sind n = 2 Prüflinge verfügbar, die eine geforderte Mindestlebensdauer von t = 40.000 km bei b = 2,0 erreichen sollen. Als Prüfbudget sind km 000 . 80 t p maximal verfügbar. 1. Test einer Probe (n = 1) über 80.000 km. Daraus folgt 2 000 . 40 / 000 . 80 L V und somit ist aus Bild 17.3 eine Mindestzuverlässigkeit von R(40.000) = 81,7 % abgesichert. 2. Test mit zwei Proben (n = 2) über je 40.000 km. Daraus folgt 0 , 1 L V und aus Bild 17.3 eine Mindestzuverlässigkeit für R(40.000) = 59 % (welche zu gering ist). Weil der Aufwand bei beiden Tests gleich ist, sollte der Prozedur mit der höheren Mindestzuverlässigkeit den Vorzug gegeben werden. 228 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 217 Beispiel: Ausfall eines Prüflings vor Erreichen der Lebensdauer nach / VDA 00/ Eine weitere typische Situation ist, dass in einem Test mit einem Prüfling dieser die Mindestlebensdauer nicht erreicht und neue Prüflinge geprüft werden müssen. Es sei beispielsweise die folgende Situation eingetreten: Ein Test erfordert die 1,9fache Solllebensdauer für R = 80 % mit einer Aussagewahrscheinlichkeit % 80 P A . Nach dem 1,1-fachen der Solllebensdauer fällt aber der Prüfling aus. Damit stellt sich die Frage: Wie lange müssen weitere Prüflinge ohne Ausfall getestet werden, um die vorgegebene Zuverlässigkeitsforderung % 80 R zu bestätigen? Auch zur Lösung dieser Fragestellung kann Bild 17.3 heranzogen werden: Um mit einer Zuverlässigkeit von R = 80 % ein Lebensdauerverhältnis 1 , 1 L V zu erhalten, wären n = 5 Prüflinge erforderlich. Da aber bereits ein Prüfling 1 , 1 L V erreicht hat, müssen noch n = 4 Prüflinge genau 1 , 1 L V erreichen. Hierzu äquivalent wäre, dass ein zweiter Prüfling (also ebenfalls n = 1) noch bis km 000 . 40 75 , 1 t p = 70.000 km ohne Ausfall geprüft werden müsste. In den bearbeiteten Beispielen lag die oft benutzte Vorgabe mit R = 80 % und % 80 P A zugrunde. Für eine Verallgemeinerung muss man bei b = konst. von dem Binominal- Ansatz *) x 0 i i n i A ) t ( R ) t ( R 1 i n 1 P , x = Anzahl der Ausfälle aus einer Stichprobe mit dem Umfang n ausgehen. Wird der Test nach dem ersten Ausfall (i = 1 zum Zeitpunkt t) abgebrochen, so ergibt sich 1 n n A ) t ( R ) t ( R 1 n ) t ( R 1 P . Es ist üblich, diese Formel im so genannten „Larson-Nomogramm“ darzustellen (s. umseitiges Bild 17.7) bzw. auszuwerten. *) Anmerkung: Binominal-Koeffizienten n 1 n , 1 0 n 17 Testplanung für einen Zuverlässigkeitsnachweis 229 218 Bild 17.7: Larson-Auswertungs-Nomogramm nach / VDA 00/ In dem Nomogramm ist ein Auswertebeispiel eingetragen: Angenommen ist dabei eine Stichprobe mit n = 20 Prüflingen, wobei während der Testzeit t genau x = 2 Prüflinge ausgefallen seien. Wird zu einem vorgegeben A P (z. B. A P = 90 %) die Zuverlässigkeit gesucht, so kann diese mit R(t) = 75 % abgelesen werden. Das heißt, die Zuverlässigkeit R(t) liegt bis zur Testzeit t mit A P = 90 % Wahrscheinlichkeit über R(t) = 75 %. Die Vorteilhaftigkeit der vorstehenden Darlegungen soll an einem zusammenfassenden Beispiel noch einmal gezeigt werden. Beispiel: Erforderlicher Stichprobenumfang beim Erfolgslauf nach / VDA 00/ Für ein beliebiges Fahrzeugsystem (z. B. Getriebe) wird im Lastenheft eine Lebensdauer von km 000 . 250 B 10 mit einer Aussagewahrscheinlichkeit von A P = 95 % gefordert. Aus Weibull-Auswertungen sei die Ausfallsteilheit mit b = 1,5 (Verschleißbereich) bekannt. 230 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 219 Ermittelt werden soll die erforderliche Anzahl an Systemen für einen Test ohne Ausfall (Success-Run), und zwar a) auf Basis der Weibull-Verteilung und b) auf Basis des Bayes’schen Ansatzes. Lösung zu a): Die Weibull-Verteilung gilt für n = 29 bei A P = 95 % (aus Tabelle im Anhang). Lösung zu b): n 1 A P 1 ) t ( R 29 105 , 0 99 , 2 ) 9 , 0 ( n 05 , 0 n R n P 1 n n A Weitere Abschätzungen mit Bayes-Ansatz: c) Aus zeitlichen Gründen können die Systeme nur 150.000 km getestet werden. Wie viele Systeme müssen somit geprüft werden, um 10 B = 250.000 km mit % 95 P A abzusichern? Lösung: 46 , 0 6 , 0 000 . 250 000 . 150 t t L 5 , 1 5 , 1 b p b V n b V L 1 A P 1 ) t ( R bzw. aufgelöst 62 8 , 61 ) 9 , 0 ( n 05 , 0 n 46 , 0 1 R n P 1 n L 1 n A b V Getriebe d) Für die notwendigen Tests stehen aber nur n = 15 Getriebe zur Verfügung. Somit stellt sich die Frage: Wie lange müssen diese ohne Ausfall laufen, um die geforderte Zuverlässigkeit mit der erwünschten Aussagewahrscheinlichkeit nachweisen zu können? Lösung: R n n P 1 n t t L A b p b V km 909 . 382 000 . 250 ) 9 , 0 ( n 15 05 , 0 n t R n n P 1 n t 5 , 1 b A p 17 Testplanung für einen Zuverlässigkeitsnachweis 231 220 Eine andere Annahme sei: Ein Test wird mit n = 30 Getrieben durchgeführt. Vor Erreichen der geforderten Lebensdauer von km 000 . 250 B 10 sind x = 3 Getriebe ausgefallen. Die anderen n - 3 Getriebe haben die 10 B -Lebensdauer ohne Ausfall überlebt. e) Welche Zuverlässigkeit kann den Systemen mit unveränderter Aussagewahrscheinlichkeit % 95 P A bescheinigt werden? Lösung: Im Larson-Nomogramm kann abgelesen werden zu n = 30; x = 3; % 76 ) t ( R % 95 P A . f) Mit welcher Aussagewahrscheinlichkeit A P kann die geforderte Zuverlässigkeit (R(250.000) = 0,9) nachgewiesen werden? Lösung: Im Larson-Nomogramm kann abgelesen werden zu R = 0,90; n = 30; x = 3 A P = 32 %. g) Wie viele Getriebe * n müssten wegen der aufgetretenen Ausfälle zusätzlich bis zur 10 B - Lebensdauer ohne Ausfall geprüft werden, um A P = 95 % bei R = 90 % nachweisen zu können? Lösung: Im Larson-Nomogramm kann abgelesen werden zu A P = 0,95; R = 0,90; x = 3 80 n ges , d. h. 50 30 80 n n n ges * . 17.4 Das Stichprobenproblem Zuvor ist schon auf die Problematik des Stichprobenumfangs bzw. der Probandenanzahl eingegangen worden. Die Festlegung des Stichprobenumfangs ist sehr wichtig, um die gewünschte Aussagesicherheit in einem „Labor- oder Feldversuch“ mit geringen Kosten erreichen zu können. Auf dieses Problem kann jedoch nur eine „fast richtige Antwort“ unter Heranziehung des Bayes-Ansatzes gegeben werden. Dieses geht von dominierenden Zufallsausfällen in einem Intervall aus. Für den so genannten Erfolgslauf (Success-Run) mit x = 0 Ausfällen gilt der Zusammenhang (s. auch Gl.(17.3)): 1 )) t ( R ( n P 1 n n A , 232 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 221 d. h., n ist die mindestens erforderliche Probandenanzahl, um eine Überlebenswahrscheinlichkeit R(t) mit der Aussagesicherheit A P absichern zu können. Diesen Zusammenhang zeigt noch einmal Bild 17.8. Bild 17.8: Zuverlässigkeitssicherung in Abhängigkeit von der Probandenzahl n und der Anzahl x der Ausfälle für eine Aussagesicherheit von % 90 P A / VDA 00/ In der ausgewerteten Grafik ist der Fall analysiert worden, dass die 10 B -Lebensdauer 9 , 0 B 1 R 10 mit einer Aussagesicherheit von ebenfalls % 90 P A nachgewiesen werden soll. Für den Erfolgslauf sind dann n = 22 Probanden erforderlich. Zum gleichen Ergebnis führt die vorstehende Formel . 22 1 ) 9 , 0 ( n ) 1 , 0 ( n n An der Grafik erkennt man weiter sehr gut, wie sich der Stichprobenumfang ändert, wenn während des Tests mehrere Ausfälle auftreten. Treten beispielsweise bei einem Test genau x = 2 Ausfälle auf, so muss bei unveränderten Vorgaben der Stichprobenumfang auf n = 52 erweitert werden, d. h., es müssen weitere 30 Prüflinge getestet werden, wobei kein Prüfling ausfallen darf. Der Gesamtzusammenhang lässt sich am besten im so genannten Larson-Nomogramm darstellen. Wie aus Bild 17.9 ersichtlich ist, wird in der gewählten Darstellung die Zuverlässigkeit (Überlebenswahrscheinlichkeit) mit der Aussagesicherheit und der Probandenanzahl 17 Testplanung für einen Zuverlässigkeitsnachweis 233 222 verknüpft. Für viele praktische Fälle ist das Diagramm besonders geeignet, die Abhängigkeiten transparent zu machen. Bild 17.9: Beispielhafte Auswertung mit dem Larson-Nomogramm / VDA 00/ 234 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 223 18 Literatur zu Teil B / BERT 86/ Bertsche, B.; Lechner, G.: Verbesserte Berechnung der Systemlebensdauer von Produkten des Maschinenbaus Konstruktion, 38 (1986) 8, S. 315-321 / BERT 04/ Bertsche, B.; Lechner, G.: Zuverlässigkeit im Fahrzeug- und Maschinenbau Springer Verlag, Heidelberg, 3. Auflage, 2004 / BIRO 91/ Biolini, A.: Qualität und Zuverlässigkeit technischer Systeme Springer Verlag, Heidelberg, 3. Auflage, 1991 / BRUN 92/ Brunner, F.-J.: Wirtschaftlichkeit industrieller Zuverlässigkeitssicherung Vieweg Verlag, Wiesbaden, 1992 / BUXB 86/ Buxbaum, O.: Betriebsfestigkeit - Sichere und wirtschaftliche Bemessung schwingbruchgefährdeter Bauteile Verlag Stahleisen, Düsseldorf, 1986 / COTT 92/ Cottin, D.; Puls, E.: Angewandte Betriebsfestigkeit Hanser Verlag, München, 2. Auflage, 1992 / DGQ 95/ Autorenkollektiv: Das Lebensdauernetz - Leitfaden zur grafischen Bestimmung von Zuverlässigkeitskenngrößen der Weibull-Verteilung DGQ-Bd. 17-26, Berlin 1995 / GUDE 95/ Gudehus, H.; Zenner, H.: Leitfaden für eine Betriebsfestigkeitsrechnung Verlag Stahleisen, Düsseldorf, 1995 / HAIB 89/ Haibach, E.: Betriebsfestigkeit - Verfahren und Daten zur Bauteilberechnung VDI-Verlag, Düsseldorf, 1989 / KLEI 15/ Klein, B.: FEM - Grundlagen und Anwendungen der Finite-Element-Methode im Maschinen- und Fahrzeugbau Springer Vieweg Verlag, Wiesbaden, 10. Auflage, 2015 / LECH 79/ Lechner, G.; Hirschmann, K.-H.: Fragen der Zuverlässigkeit von Fahrzeuggetrieben Konstruktion, 31 (1979) 1, S. 19-26 / LINß 16/ Linß, G.: Qualitätssicherung - Technische Zuverlässigkeit Hanser Verlag, München, 2016 / LÖW 10/ Löw, P.: et. al.: Funktionale Sicherheit in der Praxis dpunkt. Verlag, Heidelberg, 2010 / MEYN 10/ Meyna, A.; Pauli, B.: Zuverlässigkeitstechnik - Quantitative Bewertungsverfahren Hanser Verlag, München, 2. Auflage, 2010 224 / MÖLL 89/ Möller, K.-H.: Zuverlässigkeit von Systemen aus Hardware und Software VDI-Berichte 771, Zuverlässigkeit, S. 17-27 / NAUB 99/ Naubereit, H.; Weihert, J.: Einführung in die Ermüdungsfestigkeit Hanser Verlag, München, 1999 / RADA 95/ Radaj, D.: Ermüdungsfestigkeit - Grundlagen für Leichtbau, Maschinen- und Stahlbau Springer Verlag, Berlin Heidelberg, 1995 / SCHW 80/ Schwalbe, K.-H.: Bruchmechanik metallischer Werkstoffe Hanser Verlag, München, 1980 / SAND 08/ Sander, M.: Sicherheit und Betriebsfestigkeit von Maschinen und Anlagen Springer Verlag, Berlin Heidelberg, 2008 / SCHL 02/ Schlottmann, D.; Schnegas, H.: Auslegung von Konstruktionselementen - Sicherheit, Lebensdauer und Zuverlässigkeit im Maschinenbau Springer Verlag, Berlin Heidelberg, 2. Auflage, 2002 / SIEM 06/ Siemon, A.: Qualitative und quantitative Analysen der linearen und nichtlinearen Schadensakkumulationshypothesen unter Einbeziehung der statistischen Versuchsplanung Dissertation, Universität Kassel, 2006 / VDA 00/ Autorenkollektiv: Zuverlässigkeitssicherung bei Automobilherstellern und Lieferanten VDA Bd. 3/ T. 2, Frankfurt, 3. Auflage, 2000 / VDA 16/ Autorenkollektiv: Zuverlässigkeitssicherung bei Automobilherstellern und Lieferanten VDA Bd. 3/ T. 2, Frankfurt, 4. Auflage, 2016 / WILK 04/ Wilker, H.: Weibull-Statistik in der Praxis Books on Demand, Norderstedt, 2004 236 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 225 19 Anhang Bild 1: Formblatt für Schadensakkumulation mit Einheitskollektiv 226 4 10 Bauteil: fester Geometrie gegebener Belastung bestimmter Werkstoff (Ck 45) Belastungsverlauf: Nennspannung: Amplitudenkollektiv: Bauteil-Wöhlerlinien für Stahl: Schadensakkumulation nach Palmgren-Miner/ Haibach: D d r kritischer Querschnitt Zeit t Moment M 0 + - Kollektiv = 1000 Grundlastspiel (R = -1) I + 100.000 Lastspiele (R = 0,5) II + 100.000 Lastpiele (R = +2) III b b bn W (t) M (t) aus r, d und D Formzahl hier = 1,8 für krit. Querschnitt Kb Kb für z. B. 1 Jahr = 201.000 LW 3 10 5 10 R = +0,5 R = -1 ü H log R = +2 R = -1 - Biegung ( = 1,8) - P = 50 % Kb A 3 10 4 10 5 10 6 10 7 10 log a log a 3 10 5 10 6 10 7 10 N 1 N 2 N 3 2467 , 0 0017 , 0 145 , 0 1 , 0 10 6 10 10 7 10 10 10 N n D 7 5 5 5 4 3 3 1 i i K i 2467 , 0 D K R = +2 R = -1 R = +0,5 n 1 log bn LW 814.754 0,2467 201.000 N : r Lebensdaue L R = +2 R = -1 R = +0,5 t) (R, f M b b M 5 10 R = +2 log N BWL R = +0,5 log N für P = 50 % A 3 n , n 2 Bild 2: Nennspannungs-Formzahl-Wöhlerlinien-Konzept zur LD-Berechnung 238 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 227 D d r Bauteil: fester Geometrie gegebener Belastung bestimmter Werkstoff ) t ( M b ) t ( M t ) t ( M b ) t ( M t schwingbruchkritischer Querschnitt t Belastungsverlauf: - Biegung und Torsion mit R = -1 Biegung Torsion t M b M Kerbgrundspannungen: b b bn W (t) M (t) Amplitudenkollektiv: - Klassierung von ) t ( Va Va log Ü H log Wöhlerlinie für Stahl: a log A N N log Schadensakkumulation nach Palmgren-Miner/ Haibach: a log 1 n 2 n 1 N 8 n N log N 8 8 1 i i i K N n D tn Kt ta bn Kb ba t , t ta ba Vm tm bm 0 0 t t tn W ) t ( M ) t ( , , 2 2 3 ta ba Va t v. Mises: PWL BWL - Zug/ Druck ungekerbt ( = 1,0) - P = 50 % Kz A A N A k 2 k-1 BWL Bild 3: Vorgehen nach dem Kerbgrundspannungs-Konzept zur LD-Berechnung 19 Anhang 239 228 072 , 0 D K Bauteil: fester Geometrie gegebener Belastung bestimmter Werkstoff (Ck 45) Belastungsverlauf: Nennspannung und Formzahl: Kollektiv für 1 Jahr = 4000 Arbeitsgänge Bauteil-Dehnungs-Wöhlerlinie: D d r kritischer Querschnitt Biegung Torsion M , M b t + - Zeit t 1 Arbeitsgang , W (t) M (t) b b bn t t n W (t) M (t) aus r, d und D Formzahlen hier = 1,8 = 1,4 Kb Kt = 1 Lastpiel Stufe I + 4 Lastspiele Stufe II + 20 Lastspiele Stufe III I II III 0 3 10 4 10 5 10 0 3 10 4 10 5 10 - Zug/ Druck ungekerbt ( = 1,0) - P = 50 % z A 3 10 4 10 5 10 6 10 7 10 3 10 4 10 5 10 6 10 7 10 Schadensakkumulationsrechnung (Miner) mit Kerbgrundvergleichsdehnungskollektiv und Dehnungswöhlerlinie Dehnungs- Wöhlerlinie Dehnungskollektiv 6 4 5 4 5 3 3 1 i i K 10 5 10 8 10 7 10 6 , 1 10 2 , 1 10 4 N n D i log Va n 1 n 2 N 1 N 2 N 3 n 3 N log Va Va (t) M b (t) M t LW 10 38 , 1 072 0, .000 100 N : r Lebensdaue 6 L 2 2 ) ( 3 ) ( ) t ( m Kt bn Kb Va log log H ü log H ü N log log I II III Va log Bild 4: Kerbgrunddehnungs-Wöhlerlinien-Konzept zur LD-Berechnung 240 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 229 Bild 5: Weibull 19 Anhang 241 230 Bild 6: Kolmogoroff- Smirnoff-Test 242 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 231 Bild 7: Kolmogoroff- Smirnoff-Test 19 Anhang 243 232 20 Übungen zu Teil B 233 1. Übung: Auswertung einer Wöhlerlinie Für eine bauteilähnliche Probe aus einem nicht eindeutig zu analysierenden Stahl ist eine Wöhlerlinie zu bestimmen. Das Bauteil unterliegt dabei im Einsatz einer wechselnden Betriebsbeanspruchung (R = -1) mit den Spannungsamplituden ai = 400, 300, 170 MPa. Um die Wöhlerlinie ermitteln zu können, werden insgesamt 24 Proben angefertigt, und zwar für jedes Spannungsniveau 8 Stück. In einem kraftgesteuerten Versuch mit m = 0 (R = -1) und f = 10 Hz auf einer Hydropulsanlage werden folgende Lastwechselzahlen (LW) bis zum Bruch gemessen: gemessen: R m = 610 MPa R e = 540 MPa R = -1 i ai [MPa] i N % 10 N % 50 N % 90 N 12345678 400 400 400 400 400 400 400 400 3.660 3.570 4.370 2.630 2.930 3.000 3.900 3.250 2.682 3.414 4.146 9 10 11 12 13 14 15 16 300 300 300 300 300 300 300 300 22.270 21.210 26.390 18.030 19.950 20.630 12.160 17.340 14.445 19.748 25.050 17 18 19 20 21 22 23 24 170 170 170 170 170 170 170 170 623.830 4.240.000* 640.520 698.060 411.250 399.850 449.990 491.190 375.229 530.670 686.111 *) Durchläufer 246 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 234 Diese Lastwechselzahlen sind nun so aufzubereiten, dass eine Wöhlerlinie im Zeitfestigkeitsbereich für die drei Spannungshorizonte mit A P 10 %, 50 % und 90 % (standardisierte Normalverteilung) erstellt werden kann. Formeln: Mittelwert: n 1 i i % 50 N n 1 N Streuung: n 1 i 2 % 50 i N N 1 n 1 s Mittelwerte für A P = 10 %: A P = 90 %: Auswertung: Stufe 1 (400 MPa) Stufe 2 (300 MPa) Stufe 3 (170 MPa) 1. 3.660 22.270 623.830 2. 3.570 21.210 4.240.000* 3. 4.370 26.390 640.520 4. 2.630 18.030 698.060 5. 2.930 19.950 411.250 6. 3.000 20.630 399.850 7. 3.900 12.160 449.990 8. 3.250 17.340 491.190 i N 27.310 157.980 3.714.690 Stufe 1: 414 . 3 ) 310 . 27 ( 8 1 N % 50 1 LW 571 s 1 LW Stufe 2: 748 . 19 ) 980 . 157 ( 8 1 N % 50 2 LW 136 . 4 s 2 LW Stufe 3: 670 . 530 ) 690 . 3714 ( 7 1 N % 50 3 LW (bei einem Durchläufer) 249 . 121 s 3 LW s 282 , 1 N N s 282 , 1 N N % 50 % 90 % 50 % 10 20 Übungen zu Teil B 247 235 Wöhlerlinienwerte Stufe 1: LW 146 . 4 571 282 , 1 414 . 3 N s 282 , 1 N N LW 414 . 3 N LW 682 . 2 571 282 , 1 414 . 3 N s 282 , 1 N N % 90 1 % 50 % 90 % 50 % 10 1 % 50 % 10 Stufe 2: LW 050 . 25 136 . 4 282 , 1 748 . 19 N s 282 , 1 N N LW 748 . 19 N LW 445 . 14 136 . 4 282 , 1 748 . 19 N s 282 , 1 N N % 90 2 % 50 % 90 % 50 % 10 2 % 50 % 10 Stufe 3: LW 111 . 686 249 . 121 282 , 1 670 . 530 N s 282 , 1 N N LW 670 . 530 N LW 229 . 375 249 . 121 282 , 1 670 . 530 N s 282 , 1 N N % 90 3 % 50 % 90 % 50 % 10 3 % 50 % 10 Die Wöhlerlinienwerte können somit in die erste Tabelle übertragen werden. 248 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 236 Auftragung der Wöhlerlinien im Zeitfestigkeitsbereich für A P 10 %, 50 % und 90 % über die drei Spannungshorizonte: 20 Übungen zu Teil B 249 237 1. Ergänzung: Wöhlerlinie aus Weibull-Analyse ableiten In der Praxis liegen oft Versuchsdaten von Bauteilen oder Systemen vor, die unter realistischen Belastungen (Nachfahrversuche) bis zum Versagen getestet wurden. Vielfach werden dann Auswertungen nach Weibull durchgeführt, um bestimmte Mindestlastspiele gewährleisten zu können. Wenn auf diese Daten später eine Lebensdauerrechnung aufgesetzt werden soll, muss eine Wöhlerlinie vorliegen. Wie nachfolgend gezeigt, lässt sich diese aus einem Weibull-Diagramm ableiten. Lastwechsel 105 2 3 5 7 106 2 3 5 7 107 2 3 5 7 108 2 3 5 % Ausf allhäuf igkeit 0.1 0.2 0.3 0.5 1 23 5 10 20 30 50 70 99.9 3 kN 4,5 kN Lastwechsel 105 2 3 5 7 106 2 3 5 7 107 2 3 5 7 108 2 3 5 kN Belastung 1 2 3 4 5 8 250 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 238 2. Ergänzung: Ausreißertest Wenn bei der Erfassung von Daten augenscheinlich große Streuungen vorkommen und diese nicht durch Messfehler zu erklären sind, so sollte ein Ausreißertest durchgeführt werden. In der Versuchstechnik nutzt man hierzu den Pearson- oder Grubbs-Test. Am Beispiel der zweiten Messreihe sollen diese beiden Tests (s. Kap. 6) kurz angewandt werden. 1. Alle Messwerte aufsteigend . max . min sortieren Nr. 15 16 12 13 14 10 9 11 Messwert i x 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8 x Messwert 12.160 17.340 18.030 19.950 20.630 21.210 22.270 26.390 2. Pearson-Test Messwerte bzw. Zufallsgrößen gehören zur gleichen kontinuierlichen Verteilung, wenn 1 ; n n 1 i 2 i 1 n Q x x 1 n 1 x x s R Q . Hierin bezeichnen x = Mittelwert R = Spannweite Q = Quantil der Normalverteilung zu der Wahrscheinlichkeit (1 - ) Für den vorstehenden Datensatz gilt: , Q 54 , 3 44 , 3 s R Q , 26 , 136 . 4 x x 7 1 s , 50 , 747 . 19 8 980 . 157 x , 230 . 14 160 . 12 390 . 26 R 99 , 0 ; 8 8 1 i 2 i d. h., mit % 1 Irrtumswahrscheinlichkeit (bzw. 99 % = Wahrscheinlichkeit bzw. % 1 Irrtumswahrscheinlichkeit) gehören der kleinste und größte Messwert zur normalverteilten Stichprobe. 20 Übungen zu Teil B 251 239 3. Grubbs-Test Mit dem Grubbs-Test wird der kleinste 1 x oder größte Wert n x separat geprüft: Ausreißer kein . h . d , T Ausreißer . h . d , T s x x T 1 ; n 1 ; n 1 1 , die gleiche Prüfung ist für Ausreißer kein . h . d , T Ausreißer . h . d , T s x x T 1 ; n 1 ; n n n . Für den Datensatz gilt: . T 22 , 2 61 , 1 26 , 136 . 4 50 , 747 . 19 390 . 26 T , T 22 , 2 83 , 1 26 , 136 . 4 160 . 12 50 , 747 . 19 T 99 , 0 ; 8 n 99 , 0 ; 8 1 Auch nach diesem Test sind 1 x und n x keine Ausreißer. kritische Quantile des Pearson-Tests kritische Quantile des Gubbs-Tests n 95 , 0 ; n Q 99 , 0 ; n Q n 95 , 0 ; n T 99 , 0 ; n T 3 4 5 6 7 8 9 10 12 15 20 30 40 50 100 2,00 2,43 2,75 3,01 3,22 3,40 3,55 3,69 3,91 4,17 4,49 4,89 5,15 5,35 5,90 2,00 2,45 2,80 3,10 3,34 3,54 3,72 3,88 4,13 4,43 4,79 5,25 5,54 5,77 6,36 3 4 5 6 7 8 9 10 12 15 20 30 40 50 100 1,15 1,46 1,67 1,82 1,94 2,03 2,11 2,18 2,29 2,41 2,56 2,75 2,87 2,96 3,21 1,16 1,49 1,75 1,94 2,10 2,22 2,32 2,41 2,55 2,71 2,88 3,10 3,24 3,34 3,60 252 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 240 2. Übung: Versuchsdaten-Analyse Am Beispiel eines Lebensdauerversuches (s. auch / BERT 04/ ) soll exemplarisch eine statistische Datenanalyse durchgeführt werden. Als Proband dient ein einfacher Probestab. R 32 M16x1 100 i 9 Nach der Beaufschlagung mit einer konstanten Spannungsamplitude 2 a N/ mm 300 werden n = 20 Stäbe bis zum Bruch belastet. Die Ergebnisse sind statistisch zu interpretieren. Ausfallzeiten 100.000 LW, 90.000 LW, 59.000 LW, 80.000 LW, 126.000 LW, 117.000 LW, 161.000 LW, 98.000 LW, 158.000 LW, 107.000 LW, 125.000 LW, 118.000 LW, 99.000 LW, 186.000 LW, 66.000 LW, 132.000 LW, 97.000 LW, 87.000 LW, 69.000 LW, 109.000 LW Als ersten Schritt der Auswertung empfiehlt es sich, die Ausfallzeiten der Größe nach zu ordnen (z. B. min. max.): 1 t = 59.000 LW, 2 t = 66.000 LW, 3 t = 69.000 LW, 4 t = 80.000 LW, 5 t = 87.000 LW, 6 t = 90.000 LW, 7 t = 97.000 LW, 8 t = 98.000 LW, 9 t = 99.000 LW, 10 t = 100.000 LW, 11 t = 107.000 LW, 12 t = 109.000 LW, 13 t = 117.000 LW, 14 t = 118.000 LW, 15 t = 125.000 LW, 16 t = 126.000 LW, 17 t = 132.000 LW, 18 t = 158.000 LW, 19 t = 161.000 LW, 20 t = 186.000 LW Klassierung Die Anzahl der Klassen für die Klasseneinteilung kann etwa abgeschätzt werden zu 20 n k 5 . 20 Übungen zu Teil B 253 241 Es sollten somit 4 oder 5 Klassen gewählt werden. Wegen der besseren Auflösung werden im Folgenden 5 Klassen verwendet. Die Klassenbreite w wird berechnet, indem die Differenz zwischen der längsten und kürzesten Ausfallzeit durch die Klassenanzahl k dividiert wird: 5 000 . 127 5 LW 000 . 59 LW 000 . 186 k t t w 1 20 Ausgehend von der kürzesten Ausfallzeit ergeben sich damit folgende Klassen bzw. Ausfälle: Klasse 1 59.000 LW ... 85.000 LW 1 h = 4/ 20 = 20 % Klasse 2 85.000 LW ... 111.000 LW 2 h = = Klasse 3 111.000 LW ... 137.000 LW 3 h = = Klasse 4 137.000 LW ... 163.000 LW 4 h = = Klasse 5 163.000 LW ... 189.000 LW 5 h = = Dichtefunktion Mit den bisher ermittelten Werten kann das Histogramm der Ausfallhäufigkeiten und die empirische Dichtefunktion f(t) gezeichnet und interpretiert werden: 10 20 30 40 50 60 Ausfälle in % 50 100 250 LWx10 3 150 200 0 254 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 242 Ausfallwahrscheinlichkeit Das Histogramm der Summenhäufigkeit bzw. die empirische Ausfallwahrscheinlichkeit F(t) ergeben sich durch Aufaddieren der Ausfallhäufigkeiten: Klasse 1: Summenhäufigkeit 1 H = 1 h = 20 % Klasse 2: Summenhäufigkeit 2 H = 1 H + 2 h = 20 % + 40 % = 60 % Klasse 3: Summenhäufigkeit 3 H = 2 H + 3 h = Klasse 4: Summenhäufigkeit 4 H = 3 H + 4 h = Klasse 5: Summenhäufigkeit 5 H = 4 H + 5 h = Das Histogramm der Summenhäufigkeit und die empirische Ausfallwahrscheinlichkeit F(t) ergibt sich wie folgt: 40 80 Summe der Ausfälle in % 50 100 250 LWx10 3 150 200 100 0 20 60 F(t) Überlebenswahrscheinlichkeit Die Überlebenswahrscheinlichkeit ergibt sich am einfachsten als Komplement zur Ausfallwahrscheinlichkeit: Klasse 1: Überlebenswahrscheinlichkeit 1 R = 100 % - 1 H = 100 % - 20 % = 80 % Klasse 2: Überlebenswahrscheinlichkeit 2 R = 100 % - 2 H = Klasse 3: Überlebenswahrscheinlichkeit 3 R = 100 % - 3 H = Klasse 4: Überlebenswahrscheinlichkeit 4 R = 100 % - 4 H = Klasse 5: Überlebenswahrscheinlichkeit 5 R = 100 % - 5 H = 20 Übungen zu Teil B 255 243 Das Histogramm der Überlebenswahrscheinlichkeit und die empirische Überlebenswahrscheinlichkeit R(t) hat den folgenden Verlauf: 40 60 80 Summe der intakten Einheiten in % 50 100 250 LWx10 3 150 200 0 100 40 20 R(t) Ausfallrate Zur Ermittlung der Ausfallrate können die bereits berechneten relativen Ausfallhäufigkeiten und die Überlebenswahrscheinlichkeiten verwendet werden. Die Ausfallrate ergibt sich als Quotient dieser beiden Werte: Klasse 1: Ausfallrate 1 = 1 1 R / h = 20 / 80 = 0,25 Klasse 2: Ausfallrate 2 = 2 2 R / h = Klasse 3: Ausfallrate 3 = 3 3 R / h = Klasse 4: Ausfallrate 4 = 4 4 R / h = Klasse 5: Ausfallrate 5 = 5 5 R / h = Oder alternativ: ai ai i n n n ~ Die grafische Darstellung dieser Werte zeigt: 256 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 244 Mittelwert, Median und Modalwert der Versuchsdaten Der empirische arithmetische Mittelwert beträgt LW 10 20 186 66 59 n t t t t 3 n 2 1 m 109.200 LW. Der Median kann am einfachsten mittels der empirischen Ausfallwahrscheinlichkeit F(t) ermittelt werden. Er ergibt sich dort als Schnittpunkt mit der 50-%-Linie der Summenhäufigkeit. Für die Versuchsdaten beträgt der Median damit: median t 93.000 LW. Der Modalwert modal t entspricht der Ausfallzeit beim Maximum der Dichtefunktion. Der Modalwert beträgt für die Versuchsdaten: modal t Varianz und Standardabweichung (Streuungsmaßzahlen) Die empirische Varianz der Versuchsreihe berechnet sich zu n 1 i 2 6 2 2 2 2 m i 2 LW 10 110 186 ... 110 66 110 59 19 1 t t 1 n 1 s Die empirische Standardabweichung ergibt sich als Wurzel aus der Varianz: 2 s s 20 Übungen zu Teil B 257 245 3. Übung: Lebensdauer und Zuverlässigkeit In diesem zusammenfassenden Beispiel soll eine durchgehende Lebensdauer- und Zuverlässigkeitsberechnung gezeigt werden. Meist hat man es in der Realität mit einem Gesamtsystem zu tun. Exemplarisch soll deshalb hier eine Arbeitsmaschine bzw. deren Antrieb analysiert werden. Bild 1: Gesamtsystem aus Motor-Getriebe-Maschine Es zeigt sich, dass in der Kette das Getriebe das kritischste System darstellt. Technische Daten Ritzel Zahnrad Rollenlager A Rollenlager C Rollenlager D Rollenlager B mm 35 d an mm 45 d ab a = 120 mm i = 1,61 : 1 n = 1.500 1/ min. Bild 2: Beispielgetriebe mit Komponenten 258 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 246 Für den Anwendungsfall fordern die Kunden eine garantierte Mindestlebensdauer von 10 B = 1.500 h. I. Komponentenlebensdauer mit SAH Gewöhnlich kann mit einer Schadensakkumulationsrechnung nur die Lebensdauer von Komponenten bestimmt werden. Unter einer stochastischen Belastung ist hier zufälliges Versagen unterstellt. Weiter besteht die Voraussetzung, dass alle Komponenten aus dem gleichen Werkstoff und gleich hergestellt worden sind. Beispielhaft soll hier die Lebensdauer des Ritzels gegen Grübchenbildung abgeschätzt werden. In der DIN 3990 wird die Lebensdauerformel wie folgt entwickelt: i i K N L h D , L = aufgebrachte Gesamtlastwechselzahl i n i n Lastwechsel in der i-ten Klasse L h i i h relative Klassenhäufigkeit i i n / n Damit ergibt sich die Lebensdauer für Versagen durch Grübchenbildung: 1 N L h i i bzw. i i N h 1 L . Für die ertragbare Lastwechselzahl i N der i-ten Klasse kann auch angesetzt werden: mit , N N * k ai A A i A ai A ai * für , 1 k 2 für , k k . Damit kann die Lebensdauerformel nach Haibach angegeben werden als * k A ai i A q h N L in [LW]. Im Automobilbereich wird die q B -Lebensdauer gesucht, die im vorliegenden Fall über die Drehzahl bestimmt werden muss: h min 60 n L B q q . 20 Übungen zu Teil B 259 247 In der DIN 3990 werden eindeutige Belastbarkeitsangaben gemacht, z. B. für die zulässige Pressung bei Grübchenbildung von Zahnrädern: Werkstoff 16 MnCr5: ) chkeit hrscheinli Grübchenwa ( % 10 P bei 4 , 15 k LW 10 5 N ˆ N MPa 565 . 1 ˆ A 7 A H A H Angenommen sei, dass das Ritzel gemäß dem folgenden Fünf-Stufen-Kollektiv belastet wird: Klasse i 1 2 3 4 5 T [Nm] 1.000 800 600 400 200 ai [MPa] 1.416 1.266 1.097 895 633 i n [LW] 31 4 1 2 3 41 i h 0,7560 0,0976 0,0244 0,0488 0,0732 1 Hiermit lässt sich dann die 10-%-Lebensdauer aus der SHA bestimmen: LW 10 3 , 1 565 . 1 266 . 1 0976 , 0 565 . 1 416 . 1 7560 , 0 10 5 L 9 8 , 29 8 , 29 7 10 bzw. mit der entsprechenden Nenndrehzahl (n = 1.500 1/ min) für die Eingangswelle ergibt sich h 10 44 , 1 60 500 . 1 10 3 , 1 B 4 9 10 (entspricht 7,2 Jahre bei 2.000 h/ a, bzw. 10 % der Getriebe erreichen diesen Wert nicht). II. Systemlebensdauer mit WBF Da die SAH keine Aussage zu einem System machen kann, soll jetzt das Getriebe mit dem Weibull-Ansatz bezüglich Lebensdauer und Zuverlässigkeit analysiert werden. a) Erfahrungswerte Einige Unternehmen erstellen für ihre Komponenten in Versuchen die notwendigen Weibull-Parameter. Daher findet man auch in der Literatur geeignete Angaben zu b 260 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 248 und o t . Die Lagerhersteller geben beispielsweise die ausfallfreie Zeit o t nicht absolut, sondern als Verhältnis 10 o tB B / t f an. Mit diesem Verhältnis können sodann auch leichter Vergleiche angestellt werden. Im Nachfolgenden ist eine Zusammenstellung zu den Getriebekomponenten wiedergegeben. Komponente Formparameter b Verhältnis tB f Zahnrad-Grübchen Zahnrad-Bruch 1,15 (bis 1,5) 1,6 (bis 2,2) 0,4-0,5 0,8-0,9 Kugellager-Grübchen Rollenlager-Grübchen 1,11 1,35 0,1-0,3 0,1-0,2 Wellen-Bruch 1,3 (bis 1,9) 0,7-0,8 Bild 3: Erfahrungswerte für b und tB f -Werte b) Ermittlung der Weibull-Parameter für alle Komponenten Ausfallfreie Zeit: 10 tB o B f t , 10 B -Lebensdauer aus Ausfallwahrscheinlichkeit F(t) = 0,1: 1 , 0 t T t B exp 1 ) t ( F b o o 10 ergibt sich durch Umformung zu b o o 10 9 , 0 n t T t B (aus SAH bestimmt), charakteristische Lebensdauer erhält man ebenfalls durch Umformung: b o 10 o 9 , 0 n t B t T . 20 Übungen zu Teil B 261 249 aus SAH Berechnete WB-Werte Boole i Systemelement h B 10 b tB f h t o T [h] R(t) 1 Rollenlager A 2.193 1,35 0,15 329 10.200 0,9 2 Rollenlager B 2.193 1,35 0,15 329 10.200 0,9 3 Rollenlager C 6.602 1,35 0,15 992 30.700 0,9 4 Rollenlager D 6.602 1,35 0,15 992 30.700 0,9 5 Ritzel (Grübchen) 14.444 1,15 0,45 6.499 63.249 0,91 6 Rad (Grübchen) 71.681 1,15 0,45 32.300 311.000 0,89 unkritisch Ritzel (Bruch) 6 10 6 , 13 1,6 0,85 6 10 6 , 11 6 10 9 , 19 - Rad (Bruch) 6 10 9 , 4 1,6 0,85 6 10 17 , 4 6 10 16 , 7 - Eingangswelle 6 10 51 , 88 1,3 0,75 6 10 4 , 66 6 10 191 - Ausgangswelle 6 10 0 , 77 1,3 0,75 6 10 8 , 57 6 10 166 - Bild 4: Zwischenergebnisse aus SHA ermittelten bzw. errechneten Werten c) Systemzuverlässigkeit Bei der überwiegenden Anzahl der Systeme kann davon ausgegangen werden, dass die Komponenten „in Reihe“ wirken. Gemäß der Boole’schen Theorie überlebt ein System dann nur, wenn alle Komponenten überleben. Wichtige Voraussetzung hierbei ist, dass das Ausfallverhalten der Komponenten voneinander unabhängig ist. Damit kann für ein System angesetzt werden *) : n 1 i i n 2 1 S ) t ( R ) t ( R ) t ( R ) t ( R ) t ( R mit i b i o i i o i i t T t t exp R , hier i b i o i i o i 10 i t T t B exp R Bei dem ausgewählten Beispielgetriebe gibt es zwei Zuverlässigkeitsketten: *) Anmerkung: R(t) z. B. für Rollenlager 9 , 0 1888 , 0 exp 871 . 9 864 . 1 exp ) 329 200 . 10 ( ) 329 193 . 2 ( exp ) t ( R 35 , 1 35 , 1 35 , 1 i 262 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 250 Der Leistungsfluss über die Rollenlager hat die Zuverlässigkeit ) t ( R ) t ( R ) t ( R ) t ( R ) t ( R D C B A L und der Leistungsfluss über die Zahnräder hat die Zuverlässigkeit ). t ( R ) t ( R ) t ( R Rad Ritzel Z Damit existiert eine Systemzuverlässigkeit von ) t ( R ) t ( R ) t ( R Z L S . Mit den Zwischenergebnissen von Bild 4 ergibt sich die Zuverlässigkeit der Lagerkette 66 , 0 9 , 0 R 4 L , die Zuverlässigkeit der Zahnradkette . 81 , 0 89 , 0 91 , 0 R Z Damit kann die Gesamtzuverlässigkeit des Getriebes abgeschätzt werden zu 53 , 0 81 , 0 66 , 0 R 10 S , d. h., nur 53 % der Getriebe würden eine Lebensdauer von ) h 193 . 2 ( B min 10 bzw. größer erreichen. Datenvisualisierung und Sicherheitsbetrachtung: 47 % 53 % h 193 . 2 B min 10 462 , 1 500 . 1 193 . 2 23 % 77 % % 53 462 , 1 h 500 . 1 B min 10 20 Übungen zu Teil B 263 251 4. Übung: Strukturzuverlässigkeit M12 Bei heutigen Schienenfahrzeugen wird die Versorgungselektronik in Boxen auf den Dächern untergebracht. Im zu betrachtenden Fall sei eine Schraubenbefestigung in einer Parallel-Serienanordnung gewählt worden. Von Interesse ist die Abschätzung der Überlebenswahrscheinlichkeit und hierauf begründet der MTTF-Wert, (mittlere Lebensdauer) um frühzeitige Inspektionsmaßnahmen ergreifen zu können. Bild 1: Dachboxbefestigung bei einem modernen Niederflur-Schienenfahrzeug Im Blockdiagramm stellt sich die Schraubenverbindung wie folgt dar: ) t ( F SA ) t ( F SE 11 S 12 S 21 S 22 S Bild 2 : Anordnung der Verschraubung als Parallel-Serien-Schaltung Aus Versuchen ist bekannt, dass unter dynamischer Belastung eine Schraube eine Überlebenswahrscheinlichkeit von R i 0,9 aufweist. Die Überlebenswahrscheinlichkeit von 264 Teil B: Auswertung von Lebensdaueranalysen, Nutzung der Weibull-Funktion 252 zwei hintereinander wirkende Schraubenreihen ( 11 S / 12 S bzw. 21 S / 22 S ) ergibt sich somit als Reihenanordnung zu R 1 = R 11 · R 12 = 0,9 · 0,9 = 0,81 (1) und R 2 = R 21 · R 22 = 0,81. (2) Die beiden parallelen Kraftpfade (zwei Schraubenreihen) haben hingegen eine Ausfallwahrscheinlichkeit von F = F 1 · F 2 = (1-R 1 ) · (1-R 2 ) = (1-0,81) · (1-0,81) = 0,036 (3) oder R = 1 - F = 0,9639. (4) Für die nähere Quantifizierung der Lebensdauer einer Schraubenverbindung kann gewöhnlich die Weibull-Funktion b T t e ) t ( R (5) angesetzt werden. Aus der Umstellung von Gl. (5) erhält man b 1 R n T t , hierin bezeichnet t MTTF-Wert b = Formparameter T = charakteristische Lebensdauer bei 63,2 % Ausfällen Im Experiment ist der Formparameter einer Sechskantschraube M12x80 - 10.9 ISO 4014 mit b = 7 und die charakteristische Lebensdauer mit LW 10 5 , 1 T 6 ermittelt worden. Zu der ausgewiesenen Überlebenswahrscheinlichkeit gehört somit eine Lebensdauer von LW 10 936 , 0 964 , 0 n 10 5 , 1 t 6 6 7 1 . (6) erst nach dieser aufgebrachten Lastwechselzahl von 936.000 LW ist mit Dauerbrüchen von Schrauben zu rechnen. Im Rahmen einer vorher stattfindenden Inspektion müssten also präventiv die Schrauben ausgetauscht werden. 20 Übungen zu Teil B 265 1 Einleitung 267 Teil C: Versuchsplanung mit Minimal- Experimenten (DoE) 253 21 Statistische Versuchsmethodik - DoE 21.1 Optimierte Versuchsführung Zuvor ist schon mehrfach herausgestellt worden, dass Versuchsprogramme langwierig und kostenaufwändig sind. Es muss deshalb Anstrengung sein, durch eine intelligente Versuchsplanung zu einer deutlichen Verkürzung zu kommen und möglichst wenige Prüflinge einzusetzen. Der Normalfall wird auch der sein, dass man ein Ziel durch die Verstellung mehrerer Parameter bzw. Faktoren erreichen und optimieren kann. Eine unintelligente Vorgehensweise wäre vor diesem Hintergrund, die Parameter einzeln (d. h. „one factor at a time“) zu verstellen und deren Auswirkung zu beobachten. Dies ist zwar eine sichere Strategie, die aber in allen Aufwänden (längste Zeit, meisten Prüflinge, höchste Kosten) extrem ist. Bei jeder Versuchsaufgabe sollte es daher Zielsetzung sein, den wirtschaftlichsten Weg zu wählen. Dies führt zur simultanen Variation, welche klassische Versuchspläne oder die Matrixexperimente von Taguchi ermöglichen. Simultan bedeutet, dass je Versuch mehrere Parameter gleichzeitig verändert werden und statistische Auswertetechniken (ANOM und ANO- VA *) ) es dennoch ermöglichen, jeden einzelnen Parameter zu analysieren. Diese Strategie wird heute unter den Begriffen „SVM“ (Statistische Versuchsmethodik) oder „DoE“ (Design of Experiments) schon in vielen F+E-Bereichen der Industrie erfolgreich genutzt. Zum Konzept von DoE gehören / SIEB 10/ : - Bestimmung eines minimalen Versuchsumfangs (Klassifikation und Wahl der Faktoren, Versuchsplan, Zielgröße), - statistische Versuchsauswertung (Effekte, Wechselwirkungen, Mittelwert-/ Varianzanalyse) und gegebenenfalls - Einstellung der optimalen Faktoren - Durchführung von Bestätigungsexperimenten. Unter DoE subsummiert man heute sowohl die klassischen voll- und teilfaktoriellen Methoden als auch die so genannten industriellen Methoden von Taguchi und Shainin. Vereinfachend besteht der Unterschied darin, dass die klassischen Methoden fast immer zu einem brauchbaren Ergebnis führen, während die industriellen Methoden nur unter gewissen Randbedingungen (z. B. Kenntnis von Wechselwirkungen) ein zuverlässiges Ergebnis liefern. 21.2 Prinzipielle Vorgehensweise Eine DoE-Analyse besteht aus mehreren aufeinander aufbauenden Schritten, die untereinander verknüpft und somit voneinander abhängen sind: *) Anmerkung: ANOM = Analysis of Means, ANOVA = Analysis of Variance 254 1. Problemanalyse und Versuchsziel Vor Beginn eines Versuchs muss man sich über das Versuchsziel klar werden. Dies mag trivial erscheinen, aber oftmals lässt sich die Zielgröße nicht direkt erfassen, sondern es muss nach einer äquivalenten Vergleichsgröße gesucht werden. Weiter ist zu klären, ob es sich um eine Maximierungs-, Minimierungs- oder Zielwertaufgabe handelt. Die damit definierte Ziel- oder Wirkgröße hängt in der Regel von mehreren Parametern bzw. Faktoren ab. Da ein Versuch umso umfangreicher wird, je mehr Parameter einfließen, muss es das Bestreben sein, die Anzahl der Parameter zu beschränken. Als Orientierung kann hierfür das P-Diagramm im Bild 21.1 herangezogen werden. Bild 21.1: P-Diagramm als Produkt/ Prozess-Wirkungsbeziehung Nach der eingeführten Nomenklatur können somit drei Klassen von Parametern abgegrenzt werden: - Stellgrößen (M) sind vom Anwender eingestellte Parameter, sie sollen eine gewünschte Wirkung hervorrufen, ihre Werte beruhen auf Erfahrung. - Störgrößen (x) verursachen Abweichungen von der gewünschten Wirkung, auf ihre Größe kann meist kein direkter Einfluss ausgeübt werden. - Steuergrößen (z) können frei eingestellt werden, durch ihre Werte lässt sich eine Wirkung erreichen oder verbessern. Die Versuchspläne werden normalerweise für die Steuergrößen erstellt. Bei der Taguchi- Methode ist auch die Berücksichtigung von Störgrößen / TAGU 89/ möglich. 2. Festlegung der Variationsbereiche Gemäß der vorstehenden Parametereinteilung werden in einem Versuch gewöhnlich nur für die identifizierten Steuergrößen i z optimale Einstellungen gesucht. Falls robuste Einstellungen angestrebt werden, müssen auch die auftretenden Störgrößen i x berücksichtigt werden. Für diese Faktoren müssen als Nächstes die Variationsbereiche festgelegt werden. Wenn zwischen der Faktoreinstellung und der Zielgröße ein linearer Zusammenhang vermutet P-Diagramm (Produkt/ Prozess) x Störgrößen z Steuergrößen M Stellgrößen (Signalfaktoren) Wirkung y = f(M, x, z) 270 Teil C: Versuchsplanung mit Minimal- Experimenten (DoE) 255 wird, genügt jeweils eine Variation *) auf zwei Stufen; wird hingegen ein nichtlinearer Zusammenhang vermutet, dann muss über drei Stufen variiert werden. 3. Erstellung des Versuchsplans Aufbauend auf den vorhergehenden Überlegungen muss ein Versuchsplan ausgewählt werden. In der mathematisch-statistischen Literatur und in Softwareprodukten wird eine Vielzahl von Plänen angeboten, über die nur noch der Fachmann Übersicht hat. Der Vorteil dieser Pläne liegt im so genannten Variationsgrad, d. h. der minimalen Anzahl von Variationen der Faktoren gegeneinander. Je höher der Variationsgrad ist, desto geringer ist der Versuchsaufwand. Die Pläne werden klassifiziert in vollfaktorielle und teilfaktorielle Pläne sowie in Taguchi-Pläne (Matrixexperimente). Hinter diesen Plänen stehen eine bestimmte Kombinatorik und ein abgestimmter Umfang. Am geläufigsten sind vollfaktorielle Pläne der Klasse n 2 und n 3 . Hierin bezeichnet n die Anzahl der Faktoren und die 2 bzw. 3 die so genannten Stufen oder Einstellungen der Faktoren. Anzahl der Faktorstufen Anzahl der Faktoren Versuchsumfang 2 3 23456 4 9 8 27 16 81 32 243 64 729 Bild 20.2: Dimension klassischer, vollfaktorieller Versuchspläne Der Tabelle ist zu entnehmen, dass mit anwachsender Anzahl der Parameter letztlich auch die geplanten Versuchsumfänge unwirtschaftlich groß werden. Dies bedingt kleinere Pläne zu wählen, d. h. die Faktoren einzuschränken. 4. Statistische Absicherung Das Ziel von Versuchen ist es, relevante Unterschiede im Einstellungs-Antwort-Verhalten eines P-Systems zu finden. Dies bedingt, dass eine bestimmte Anzahl von Versuchen mit Wiederholungen durchgeführt werden sollte. Diese Wiederholungen sollen systematische Fehler ausschließen. Im Allgemeinen reicht es aber aus, wenn je Faktoreinstellung zwei bis drei Wiederholungen gefahren werden. 5. Auswertung *) Anmerkung: 2 Stufen (-, + oder 1, 2); 3 Stufen (-, 0, + oder 1, 2, 3) 21 Statistische Versuchsmethodik - DoE 271 256 Nach der Auswahl eines Versuchsplans wird der Versuch mittels einer Planmatrix (s. Bild 21.3) durchgeführt und statistisch / KLEP 09/ ausgewertet. Als Beispiel sei ein vollständiger 3 2 -Plan mit zwei Wiederholungen gegeben, der für die Lebensdaueroptimierung und Langzeitwirkung eines Abgasreinigungskatalysators konzipiert wurde. Die drei unabhängigen Faktoren (Hauptwirkungen) sind hierbei: , A = Betriebstemperatur mit zwei Ausprägungen, C 100 A , C 50 A , B = Vorwärmzeit mit zwei Limitierungen, . Min 30 B ., Min 15 B und , C = zwei KAT-Varianten, gebildet durch verschiedene Monolithe 2 2 SiO C , ZrO C . Weiter können in der Versuchsmatrix noch Wechselwirkungen zwischen AB, AC, BC und ABC ausgewertet (aber nicht eingestellt) werden. Die Messwerte weisen jeweils den Prozentsatz an 2 CO -Bindung aus und geben somit eine Information über die Wirkung des Katalysators im Betrieb. Aus den Variationen und deren Reaktionsauslösungen lassen sich im Folgenden vielfältige Schlüsse ziehen: Vers. Nr. I Temp. A Zeit B Kat. C AB AC BC ABC Messergebnisse [%] i y 2 i 1 + - - - + + + - 52,8 54,1 53,45 0,845 2 + + - - - - + + 61,5 61,8 61,65 0,045 3 + - + - - + - + 56,7 55,2 55,95 1,125 4 + + + - + - - - 67,9 70,2 69,05 2,645 5 + - - + + - - + 53,6 54,1 53,85 0,125 6 + + - + - + - - 62,2 62,9 62,55 0,245 7 + - + + - - + - 56,5 54,6 55,55 1,805 8 + + + + + + + + 68,5 67,2 67,85 0,845 i E 42,3 10,58 16,9 4,22 -0,3 -0,08 8,5 2,13 -0,3 -0,08 -2,9 -0,73 -1,3 -0,33 479,90 7,680 0,960 Sign. *** *** - ** - - - HW-Variationen WW-Analyse Daten-Analyse Bild 20.3: Vollständiger Versuchsplan für drei Hauptwirkungen zum Zweck einer KAT- Optimierung (Variation mit 1 i 2 , i = Spaltenzähler) 272 Teil C: Versuchsplanung mit Minimal- Experimenten (DoE) 257 Insbesondere gehören zur Auswertung *) - die Effektanalyse für alle Faktoren, - eine Bewertung der möglichen Wechselwirkungen zwischen Faktoren, - die Optimierungsrichtung für die Faktoren (ANOM), - eine Signifikanzanalyse zur Einordnung der Relevanz der Faktoren (ANOVA). Beispiel: Aus den vorstehenden Versuchsdaten soll beispielsweise der Effekt des Parameters A auf die Wirkung bestimmt werden: . 575 , 10 4 3 , 42 E 3 , 42 6 , 55 9 , 53 0 , 56 5 , 53 9 , 67 6 , 62 1 , 69 7 , 61 A A A A Der Effekt ist somit die mittlere Wirkung, wenn ein Parameter von Minus nach Plus umgestellt wird. Zu dem vorstehenden 3 2 -Versuchsplan sei noch bemerkt, dass nur die unabhängigen Faktoren (Hauptwirkungen: A, B, C) eingestellt werden können. Die Wechselwirkungen (WW) ergeben sich und können bezüglich ihrer Stärke ausgewertet werden. Dies ist oft insofern wichtig, da alle Wirkungen in der Summe das Ergebnis ausmachen. Zu den drei Hauptwirkungen ergeben sich noch die vier folgenden Wechselwirkungen: A B C A x B A x C B x C A x B x C Eine Wechselwirkung ist dadurch gekennzeichnet, dass zwei oder mehrere Hauptwirkungen einen gemeinsamen Wirk-Effekt haben, der von der Einstellung der Faktoren abhängig ist. Mit Kenntnis der ermittelten Ergebnisse kann viel gezielter als früher in Entwicklungen eingegriffen und somit zu einer gewünschten Wirkung hin optimiert werden. Die angesprochenen Auswertemöglichkeiten sind in den nachfolgenden Kapiteln dargestellt. *) Anmerkung: In der Matrix sind noch gebildet worden: i y = die Mittelwerte und 2 i s = die Varianz aus den Beobachtungswerten sowie n 1 i i y Vorzeichen n 2 Effekte 21 Statistische Versuchsmethodik - DoE 273 258 21.3 Versuchstrategien Die Versuchsplanung geht auf den englischen Statistiker Sir Roland Fisher (1890-1962) zurück, der sich zur Aufgabe gestellt hatte, die Bodenerträge in der Landwirtschaft zu erhöhen. Da er seine Experimente nicht vom Verlauf der Jahreszeiten abhängig machen wollte, ersann er sich eine Strategie der simultanen Variationen. Seine Ansätze wurden von Box, Wilson, Hunter, Davies etc. im Zeitraum bis 1960 so erweitert, dass sie heute in allen naturwissenschaftlich-technischen Disziplinen anwendbar sind. Eine kurze Übersicht über die geläufigsten Versuchspläne gibt die folgende Tabelle (nach / KLEI 07/ ) im Bild 21.4. Bild 20.4: Versuchstechniken im Überblick In der Chemie und Pharmazie haben die klassischen Versuchspläne 1. und 2. Ordnung eine breite Anwendung gefunden. Dies ist aber keine Einschränkung, sondern diese Pläne lassen sich auch auf technisch-physikalische Probleme anwenden. Der Vorteil dieser Pläne ist ihr einfaches Bildungsgesetz (s. umseitig Bild 21.5) mit vollständigen Variationen, aber eben dem Nachteil des großen Versuchsumfangs. Hinter jedem Versuchsplan steht ein mathematisches Modell. Die n 2 -Pläne bilden demgemäß ein lineares Modell der Form e x b x b x b b yˆ 3 3 2 2 1 1 0 ab. Wenn die Wechselwirkungen wesentlich sind, kann dieses Modell erweitert werden: . e x x x b x x b x x b x x b x b x b x b b yˆ 3 2 1 123 3 2 23 3 1 13 2 1 12 3 3 2 2 1 1 0 Statistische Versuchspläne 1. Ordnung - vollständige n 2 -Faktorenversuchspläne - n 2 -Faktorenversuchspläne mit vermengten Blöcken - p n 2 -Teilfaktorenversuchspläne - p n 2 -Teilfaktorenversuchspläne mit vermengten Blöcken Statistische Versuchspläne 2. Ordnung - n 2 - und n 2 -Faktorenversuchspläne mit Zentralpunkten - vollständige n 3 -Faktorenversuchspläne - p n 3 -Teilfaktorenversuchspläne - gemischte 3 n 3 2 -Faktorenversuchspläne - Box-Behnken-Designs D-optimale Versuchspläne Matrixpläne nach Taguchi Versuchsschemen nach Shainin 274 Teil C: Versuchsplanung mit Minimal- Experimenten (DoE) 259 Mit ) x ( yˆ sei ausgedrückt, dass das Modell eine Approximation für die Beobachtungswerte i y darstellt. Mit i b werden Koeffizienten bezeichnet, die aus der Versuchsmatrix abgeleitet werden können, und e bezeichnet eine allgemeine Fehler- oder Korrekturgröße. Plan 2 5 Plan 2 4 Plan 2 3 Plan 2 2 Exp. A B C D E 1 - - - - - 2 + - - - - 3 - + - - - 4 + + - - - 5 - - + - - 6 + - + - - 7 - + + - - 8 + + + - - 9 - - - + - 10 + - - + - 11 - + - + - 12 + + - + - 13 - - + + - 14 + - + + - 15 - + + + - 16 + + + + - 17 - - - - + 18 + - - - + 19 - + - - + 20 + + - - + 21 - - + - + 22 + - + - + 23 - + + - + 24 + + + - + 25 - - - + + 26 + - - + + 27 - + - + + 28 + + - + + 29 - - + + + 30 + - + + + 31 - + + + + 32 + + + + + Bild 20.5: n 2 -Versuchspläne ohne Wechselwirkungen 21 Statistische Versuchsmethodik - DoE 275 260 Neben dieser klassischen Versuchsplanung haben vor allem im industriellen Bereich die Matrixexperimente von Taguchi und die Selektionstechniken von Shanin breite Anwendung gefunden. Die Taguchi-Techniken kann man charakterisieren als ein Minimalkonzept simultaner Versuche, wozu besonders angepasste Versuchsmatrizen herangezogen werden. Eine im statistischen Sinne vereinfachte Versuchsmethodik stellen hingegen die Shainin-Ansätze dar, die größtenteils mit qualitativen Ausprägungen / BHOT 90/ arbeiten. 21.4 Auswertetechniken Versuche sollten zum Ziel haben, nicht nur einen speziellen Sachverhalt quantitativ zu klären, sondern auch weitergehende Zusammenhänge aufzuzeigen, die eine Optimierung des Systems ermöglichen. In der vorstehenden Versuchsmatrix 3 2 ist diese Intention schon teilweise umgesetzt worden. Ermittelt wurden beispielhaft: die Antwortmittelwerte i y für alle Einstellungen (A, B, C), welche ein lokales Optimum geben; die Varianzen 2 i bzw. der Varianzmittelwert 2 , der innerhalb bestimmter Intervalle t die Signifikanzgrenzen (95 %, 99 % und 99,9 %) ausweisen, die Effekte der Faktoren und der Wechselwirkungen, welche eine Einschätzung der absoluten Bedeutung eines Faktors und einer Wechselwirkung auf die Zielbzw. Wirkungsfunktion ermöglicht. Damit sind die Möglichkeiten jedoch noch nicht erschöpft. Die Statistik ermöglicht mit dem ANOM- (Analysis of Means = Mittelwertanalyse) und ANOVA-Verfahren (Analysis of Variance = Varianzanalyse) noch weitere Erkenntnisse über die Parameter zu gewinnen. Der Anwendungsgewinn ist hierbei um so größer, je mehr höherstufige Parameter vorliegen. Mittels der Mittelwertanalyse lassen sich die Optimierungsrichtungen der Parameter feststellen. 70 60 50 y 54,70 65,28 57,88 62,10 60,03 59,95 A B C A B C ANOM Legende: A = Betriebstemp. 70°/ 120° B = Betriebszeit 4 Min./ 8 Bild 21.6: Beispiel für eine ANOM-Analyse 276 Teil C: Versuchsplanung mit Minimal- Experimenten (DoE) 261 Dazu werden die mittleren Wirkungen der Parametereinstellungen auf einem Niveau bestimmt und je Einstellung aufgetragen, z. B. % 28 , 65 4 10 , 261 4 85 , 67 55 , 62 05 , 69 65 , 61 y % 70 , 54 4 80 , 218 4 55 , 55 85 , 53 95 , 55 45 , 53 y A A d. h. durch den Wechsel von A nach A ändert sich die Wirkung um 10,58 %, was in Relation zu den anderen Parametern relativ viel ist. Damit ist auch der Effekt gegeben: % 58 , 10 y y E A A A . Eine weitere oder ergänzende Auswertetechnik ist die Varianzanalyse, diese erlaubt eine Einordnung der Parameter hinsichtlich ihrer Signifikanz und prozentualen Bedeutung auf das Ergebnis. Beispielhaft ist auch für das vorhergehende Experiment die folgende Varianzanalyse / PHAD 90/ durchgeführt worden. Faktoren x f x SQ x V x F ' SQ x p (%) A 1 447,33 447,33 465,97 xxx 446,37 81,59 B 1 71,41 71,41 74,83 xxx 70,45 12,88 C 1 0,025 0,025 0,026 - - AB 1 18,07 18,07 18,82 xx 17,11 3,13 AC 1 0,025 0,025 0,026 - - BC 1 2,11 2,11 2,20 - - ABC 1 0,43 0,43 0,45 - e 8 7,64 0,96 +) Poolingfaktoren 8 1 krit F 95 % = 5,32, d. h. Bewertung „noch indifferent“ 99 % = 11,3 xx, d. h. Bewertung „signifikant“ 99,9 % = 25,42 xxx, d. h. Bewertung „hoch signifikant“ ANOVA Test: F x > F krit 21 Statistische Versuchsmethodik - DoE 277 262 Formeln: . V f SQ SQ , f SQ V , V V F , f SQ V , SQ SQ SQ SQ SQ SQ SQ SQ , SQ SQ SQ , C y SQ , n y C , C n y n y SQ SQ e x x x e e e e x x x x x ABC BC AC AB C B A C , B , A C , B , A gesamt e F 2 i gesamt 2 i F F A 2 A A 2 A A x Die Erkenntnisse aus der Effektanalyse sind identisch zur ANOM-Auswertung und führen in etwa auch zur gleichen Einschätzung wie die ANOVA-Auswertung. 21.5 Taguchi-Verfahren Die Philosophie von Taguchi ist - die Betreibung des nur minimalen Versuchsaufwandes und - die Realisierung robuster Einstellungen. Taguchi hat insgesamt 18 so genannte orthogonale Versuchsmatrizen standardisiert. Um ein derartiges Feld auszuwählen, kann der minimale Versuchsumfang abgeschätzt werden. Im vorliegenden Beispiel sollen drei Parameter A, B, C auf zwei Stufen variiert werden. Die Erfahrung zeigt, wenn eine Abhängigkeit einer Wirkung von der Temperatur und der Zeit vermutet wird, dass dann meist auch eine Wechselwirkung AB (d. h. zusätzliche Reaktion auf die Wirkung durch gleichzeitige Abhängigkeit) entsteht. Demgemäß ist das Experiment für die Hauptwirkungen und die Wechselwirkung zu dimensionieren: ABC = 3 (2 - 1) = 3 + AB = 1 1 = 1 + y = 1 = 1 5, d. h., das Experiment muss minimal mit 5 Einstellungen durchgeführt werden. 278 Teil C: Versuchsplanung mit Minimal- Experimenten (DoE) 263 Innerhalb der Standardfelder existiert aber nur ein 4 L bzw. 8 L -Feld, sodass zum nächstgrößeren 8 L -Feld gegriffen werden muss. Im vorliegenden Fall führt dies leider zu keiner Aufwandsreduzierung. Das Standardfeld 7 8 2 L kann sieben Parameter auf zwei Stufen mit acht Experimenten verarbeiten und lautet: Vers. Nr. 1 A 2 B 3 AB 4 C 5 L 6 L 7 L i y 1 1 1 1 1 1 1 1 2 1 1 1 2 2 2 2 3 1 2 2 1 1 2 2 4 1 2 2 2 2 1 1 5 2 1 2 1 2 1 2 6 2 1 2 2 1 2 1 7 2 2 1 1 2 2 1 8 2 2 1 2 1 1 2 Bild 21.7: Beispielhafte Belegung einer Taguchi-Matrix unter Nutzung eines Graphen Die Belegung der Matrix mit Parametern ist nicht beliebig, sondern muss nach einem vorgegebenen Schema (unterscheidet unabhängig und abhängige Spalten) erfolgen. Für die Auswertung kann wieder das ANOM- und ANOVA-Verfahren herangezogen werden. Weiterhin ist die Idee von Taguchi, Experimente dem Gebrauchsumfeld / FOWL 95/ auszusetzen. Hierzu verwendet er ein inneres Feld der Steuergrößen und ein äußeres Feld der Störgrößen. Mit den Störgrößen (z. B. Mangelschmierung, tiefe oder hohe Temperaturen, korrosive Umgebung etc.) soll der praktische Einsatz simuliert und dieser robust gemacht werden, sodass mit geeigneten Einstellungen trotzdem ein Optimum erzielt wird. Die optimale Wirkung kann dabei aus dem Antwortfeld herausextrahiert werden. In der Vielzahl der Fälle benötigt man den Taguchi-Ansatz nur 1/ 3 bis 1/ 2 des Aufwandes, der normalerweise mit den klassischen Verfahren der Versuchsmethodik zu treiben ist. 7 1 3 2 6 4 5 1 356 2 4 7 Graphen L 8 21 Statistische Versuchsmethodik - DoE 279 264 Spalten-Nr. 1 2 3 4 5 6 7 1 1 1 1 1 1 1 1 1 1 2 2 2 2 1 2 2 1 1 2 2 1 2 2 2 2 1 1 2 1 2 1 2 1 2 2 1 2 2 1 2 1 2 2 1 1 2 2 1 2 2 1 2 1 1 2 Exp. 1 2 3 4 5 6 7 8 Antwortfeld: Eintragung der nxm Versuchserge b ni s se für jede Wirkung Analysefeld: S/ N-Ratio Spalten Nr. 1 2 3 Exp. 1 2 3 4 2 2 1 1 2 1 2 1 1 2 2 1 n 1 m 1 m "innere s Feld: L 8 (2 7 )" für die Steuergrößen "äußeres Feld: L 4 (2 3 )" für die Störgrößen Quasi- Wiederholungen In dem Analysefeld wird meist als „Optimierungsfunktion“ eine so genannte S/ N-Ratio (Signal-to-Noise-Funktion) ausgewertet. Diese wurde von Taguchi so aufgebaut, dass die Wirkungsfunktion geglättet und hinreichend steil wird, wodurch sich Extrema besser darstellen lassen. Problemtyp S/ N-Funktion Idealwert Minimierungsproblem n 1 i 2 i y n 1 log 10 y 0 Maximierungsproblem n 1 i 2 i y 1 n 1 log 10 y Zielwertproblem n 1 i 2 i 2 n 1 i i 2 2 y 1 n 1 y n 1 log 10 y unendlich 0, aber endlich Bild 20.8: Zielfunktionen nach Taguchi 280 Teil C: Versuchsplanung mit Minimal- Experimenten (DoE) 265 Bei der Bearbeitung einer Aufgabe ist daher vorab zu klären, ob es sich um eine Maximierung oder Minimierung der Wirkungsfunktion handelt. In einem kleineren Umfang von Fällen kann auch ein Zielwertproblem vorliegen, d. h., es wird tatsächlich die Erreichung einer bestimmten Lebensdauergröße mit kleiner Streuung angestrebt / TOUT 97/ . 21 Statistische Versuchsmethodik - DoE 281 266 22 Literatur zu Teil C / SIEB 10/ Siebert, K.; et. al.: Statistische Versuchsplanung - Design for Experiments (DoE) Springer Verlag, Heidelberg, 2010 / TAGU 89/ Taguchi, G.: Qualitiy Engineering UNI PUB-Kraus International, White Plains NY, 1989 / KLEP 09/ Kleppmann, W.: Taschenbuch Versuchsplanung Hanser Verlag, München, 6. Auflage, 2009 / KLEI 07/ Klein, B.: Versuchsplanung - DoE Oldenbourg Verlag, München, 2. Auflage, 2007 / BHOT 90/ Bhote, K. R.: Qualität - Der Weg zur Weltspitze IQM-Verlag, Großbottwar, 1990 / PHAD 90/ Phadke, M. S.: Using Robust Design GfMT-Verlag, München, 1990 / FOWL 95/ Fowlkes, W. Y.; Greveling, C. M.: Engineering Methods for Robust Product Design Addision-Wesley Publishing, Reading, 1995 / TOUT 97/ Toutenburg, H.; et. al.: Quality Engineering Prentice Hall, London, 1997 267 23 Versuchspläne Taguchi-Pläne Feld 3 4 2 L Feld 7 8 2 L Feld 4 9 3 L Feld 11 12 2 L Feld 15 16 2 L Feld 5 16 4 L Feld 7 1 18 3 x 2 L Feld 6 25 5 L Feld 13 27 3 L Feld 9 1 32 4 x 2 L Feld 31 32 2 L 1 Einleitung 285 268 Orthogonales Feld 1 2 3 Exp. Nr. 1 2 3 1234 1122 1212 1221 Spalten-Nr. Linearer Graph von 4 L 3 4 2 L 3 4 2 L Orthogonales Feld Lineare Graphen von 7 1 2 3 4 5 6 1 2 3 4 5 6 7 (1) (2) Exp. Nr. 1 2 3 4 5 6 7 12345678 11112222 11221122 11222211 12121212 12122121 12212112 12211221 Spalten-Nr. Spalten- Nr. 1 2 3 4 5 6 7 1234567 (1) 3 (2) 21 (3) 567 (4) 4761 (5) 74523 (6) 654321 (7) Wechselwirkungstabelle für 7 8 2 L 8 L 8 L 7 8 2 L 286 Teil C: Versuchsplanung mit Minimal- Experimenten (DoE) 269 Orthogonales Feld Orthogonales Feld Lineare Graphen von 1 2 3, 4 Exp. Nr. 1 2 3 4 123456789 111222333 123123123 123231312 123312231 Spalten-Nr. 9 L 4 9 3 L 4 9 3 L Anmerkung: Die Wechselwirkung zwischen zwei Spalten ist teilweise mit den übrigen neun Spalten vermengt. Dieses Feld sollte nicht verwendet werden, wenn die Wechselwirkungen geschätzt werden müssen. 11 12 2 L 11 12 2 L 23 Versuchspläne 287 270 Lineare Graphen von 7 1 2 3 4 5 6 (1) 11 12 10 13 9 14 15 8 1 2 3 4 5 6 7 (2) 15 8 14 9 12 10 (3) 6 12 3 9 10 8 2 7 1 13 15 14 11 4 5 6 12 3 9 10 8 2 7 1 15 14 4 1113 5 (4) 1 4 5 7 6 2 8 9 11 10 3 12 14 13 15 (5) (6) 1 2 3 6 7 4 5 14 12 10 8 15 9 11 13 Spalten- Nr. (1) 3 (2) 21 (3) 567 (4) 4761 (5) 74523 (6) 654321 (7) 9 10 11 12 13 14 15 (8) 8 11 10 13 12 15 14 1 (9) 11 89 14 15 12 13 23 (10) 10 98 15 14 13 12 321 (11) 13 14 15 89 10 11 4567 (12) 12 15 14 98 11 10 54761 (13) 15 12 13 10 11 89674523 (14) 14 13 12 11 10 987654321 (15) Wechselwirkungstabelle für 123456789 10 11 12 13 14 15 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 L 16 L 15 16 2 L Orthogonales Feld Exp. Nr. 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 123456789 10 11 12 13 14 15 16 1111111122222222 1212121212121212 1111222211112222 1212121221212121 1111222222221111 1212212112122121 1122112211221122 1212212121211212 1122112222112211 1221122112211221 1122221122111122 1221211212212112 1221211221121221 1122221111222211 1221122121122112 Spalten-Nr. 15 16 2 L 288 Teil C: Versuchsplanung mit Minimal- Experimenten (DoE) 271 Orthogonales Feld Linearer Graph von 1 2 3, 4, 5 Exp. Nr. 1 2 3 4 5 123456789 10 11 12 13 14 15 16 1111222233334444 1234123412341234 1234214334124321 1234341243212143 1234432121433412 Spalten-Nr. Anmerkung: Zur Schätzung der Wechselwirkungen zwischen den Spalten 1 und 2 müssen alle anderen Spalten frei bleiben. 5 16 4 L 5 16 4 L 16 L 23 Versuchspläne 289 272 Exp. Nr. 1 2 3 8 4 5 6 7 123456789 10 11 12 13 14 15 16 17 18 111111111222222222 111222333111222333 123123123123123123 123123231312231312 123231123312312231 123312231231312123 123321312123231231 123231312231123312 Spalten-Nr. Anmerkung: Orthogonales Feld Linearer Graph für 1 2 3 4 5 6 7 8 Die Wechselwirkungen zwischen den Faktoren A und B sind orthogonal zu allen Faktoren und können deshalb ohne Verzicht auf einen weiteren Faktor geschätzt werden. Die Wechselwirkungen zwischen den dreistufigen Faktoren sind teilweise mit den übrigen Faktoren vermengt. Dieses Feld (L ) sollte nicht verwendet werden, wenn die Wechselwirkungen bei dreistufigen Faktoren geschätzt werden müssen. 18 7 1 18 3 2 x L 7 1 18 3 2 x L 18 L 290 Teil C: Versuchsplanung mit Minimal- Experimenten (DoE) 273 Orthogonales Feld Linearer Graph von 1 2 3, 4, 5, 6 Exp. Nr. 1 2 3 4 5 6 123456789 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 1111122222333334444455555 1234512345123451234512345 1234523451345124512351234 1234534512512342345145123 1234545123234515123434512 1234551234451233451223451 Spalten-Nr. Anmerkung: Zur Schätzung der Wechselwirkungen zwischen den Spalten 1 und 2 müssen alle anderen Spalten frei bleiben. 6 25 5 L 6 25 5 L 25 L 23 Versuchspläne 291 274 Orthogonales Feld Lineare Graphen von 1 2 3,4 Exp. Nr. 1 2 3 4 5 6 7 8 9 11 12 13 10 123456789 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 111111111222222222333333333 111222333111222333111222333 111222333222333111333111222 111222333333111222222333111 123123123123123123123123123 123123123231231231312312312 123123123312312312231231231 123231312123231312123231312 123231312231312123312123231 123231312312123231231312123 123312231123312231123312231 123312231231123312312231123 123312231312231123231123312 Spalten-Nr. 5 6,7 8,11 9 10 12 13 1 2 5 8 11 12,13 9,10 6,7 3,4 (1) (2) 13 27 3 L 13 27 3 L 27 L 292 Teil C: Versuchsplanung mit Minimal- Experimenten (DoE) 275 Exp. Nr. 1 2 3 8 10 4 5 6 7 9 123456789 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 11111111111111112222222222222222 11112222333344441111222233334444 12341234123412341234123412341234 12341234214321434321432134123412 12342143341243211234214334124321 12343412123434122143432121434321 12344321341221432143341243211234 12343412214343213412123443212143 12344321432112343412214321433412 12342143432134124321341212342143 Spalten-Nr. Anmerkung: Die Wechselwirkung zwischen den Spalten 1 und 2 ist orthogonal zu allen Spalten und kann deshalb ohne Verzicht auf eine weitere Spalte geschätzt werden. Sie kann aus der 2-Weg-Tabelle dieser Spalten geschätzt werden. Die Spalten 1 und 2 können zur Bildung einer 8stufigen Spalte kombiniert werden. Die Wechselwirkungen zwischen zwei 4-stufigen Spalten sind teilweise mit jeder der übrigen 4-stufigen Spalten vermengt. Linearer Graph für 1 2 3 4 5 6 7 8 9 10 9 1 32 4 2 x L Orthogonales Feld 9 1 32 4 2 x L 32 L 23 Versuchspläne 293 276 Exp. Nr. 123456789 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 31 32 2 L 31 32 2 L Orthogonales Feld 294 Teil C: Versuchsplanung mit Minimal- Experimenten (DoE) 277 24 F-Wert-Tabellen F(95 %) f2\f1 1 2 3 4 5 6 8 1 2 3 4 5 161,40 18,51 10,13 7,71 6,61 195,50 19,00 9,55 6,94 5,79 215,70 19,16 9,28 6,59 5,41 224,60 19,25 9,12 6,39 5,19 230,20 19,30 9,01 6,26 5,05 234,00 19,33 8,94 6,16 4,95 238,90 19,37 8,85 6,04 4,82 6 7 8 9 10 5,99 5,59 5,32 5,12 4,96 5,14 4,74 4,46 4,26 4,10 4,76 4,35 4,07 3,86 3,71 4,53 4,12 3,84 3,63 3,46 4,39 3,97 3,69 3,48 3,33 4,28 3,87 3,58 3,37 3,22 4,15 3,73 3,44 3,23 3,07 11 12 13 14 15 4,84 4,75 4,67 4,60 4,54 3,98 3,89 3,81 3,74 3,68 3,59 3,49 3,41 3,34 3,29 3,36 3,26 3,18 3,11 3,06 3,20 3,11 3,03 2,96 2,90 3,09 3,00 2,92 2,85 2,79 2,95 2,85 2,77 2,70 2,64 16 17 18 19 20 4,49 4,45 4,41 4,38 4,35 3,63 3,59 3,55 3,52 3,49 3,24 3,20 3,16 3,13 3,10 3,01 2,96 2,93 2,90 2,87 2,85 2,81 2,77 2,74 2,71 2,74 2,70 2,66 2,63 2,60 2,59 2,55 2,51 2,48 2,45 21 22 23 24 25 4,32 4,30 4,28 4,26 4,24 3,47 3,44 3,42 3,40 3,39 3,07 3,05 3,03 3,01 2,99 2,84 2,82 2,80 2,78 2,76 2,68 2,66 2,64 2,62 2,60 2,57 2,55 2,53 2,51 2,49 2,42 2,40 2,37 2,36 2,34 26 27 28 29 30 4,23 4,21 4,20 4,18 4,17 3,37 3,35 3,34 3,33 3,32 2,98 2,96 2,95 2,93 2,92 2,74 2,73 2,71 2,70 2,69 2,59 2,57 2,56 2,55 2,53 2,47 2,46 2,45 2,43 2,42 2,32 2,31 2,29 2,28 2,27 40 60 120 4,08 4,00 3,92 3,84 3,23 3,15 3,07 3,00 2,84 2,76 2,68 2,60 2,61 2,53 2,45 2,37 2,45 2,37 2,29 2,21 2,34 2,25 2,17 2,10 2,18 2,10 2,02 1,94 278 F(95 %) f2\f1 12 15 20 30 60 1 2 3 4 5 243,90 19,41 8,74 5,91 4,68 245,90 19,43 8,70 5,86 4,62 248,00 19,45 8,66 5,80 4,56 250,10 19,46 8,62 5,75 4,50 252,20 19,48 8,57 5,69 4,43 254,30 19,50 8,53 5,63 4,36 6 7 8 9 10 4,00 3,57 3,28 3,07 2,91 3,94 3,51 3,22 3,01 2,85 3,87 3,44 3,15 2,94 2,77 3,81 3,38 3,08 2,86 2,70 3,74 3,30 3,01 2,79 2,62 3,67 3,23 2,93 2,71 2,54 11 12 13 14 15 2,79 2,69 2,60 2,53 2,48 2,72 2,62 2,53 2,46 2,40 2,65 2,54 2,46 2,39 2,33 2,57 2,47 2,38 2,31 2,25 2,49 2,38 2,30 2,22 2,16 2,40 2,30 2,21 2,13 2,07 16 17 18 19 20 2,42 2,38 2,34 2,31 2,28 2,35 2,31 2,27 2,23 2,20 2,28 2,23 2,19 2,16 2,12 2,19 2,15 2,11 2,07 2,04 2,11 2,06 2,02 1,98 1,95 2,01 1,96 1,92 1,88 1,84 21 22 23 24 25 2,25 2,23 2,20 2,18 2,16 2,18 2,15 2,13 2,11 2,09 2,10 2,07 2,05 2,03 2,01 2,01 1,98 1,96 1,94 1,92 1,92 1,89 1,86 1,84 1,82 1,81 1,78 1,76 1,73 1,71 26 27 28 29 30 2,15 2,13 2,12 2,10 2,09 2,07 2,06 2,04 2,03 2,01 1,99 1,97 1,96 1,94 1,93 1,90 1,88 1,87 1,85 1,84 1,80 1,79 1,77 1,75 1,74 1,69 1,67 1,65 1,64 1,62 40 60 120 2,00 1,92 1,83 1,75 1,92 1,84 1,75 1,67 1,84 1,75 1,66 1,57 1,74 1,65 1,56 1,46 1,64 1,53 1,43 1,32 1,51 1,39 1,25 1,00 296 Teil C: Versuchsplanung mit Minimal- Experimenten (DoE) 279 F(99 %) f2\f1 1 2 3 4 5 6 8 1 2 3 4 5 4.053,00 98,50 34,12 21,20 16,26 4.999,50 99,00 30,82 18,00 13,27 5.403,00 99,17 29,46 16,69 12,06 5.625,00 99,25 28,71 15,98 11,39 5.764,00 99,30 28,24 15,52 10,97 5.859,00 99,33 27,91 15,21 10,67 5.982,00 99,37 27,49 14,80 10,29 6 7 8 9 10 13,75 12,25 11,26 10,56 10,04 10,92 9,55 8,65 8,02 7,56 9,78 8,45 7,59 6,99 6,55 9,15 7,83 7,01 6,42 5,99 8,75 7,46 6,63 6,06 5,64 8,47 7,19 6,37 5,80 5,39 8,10 6,84 6,03 5,67 5,06 11 12 13 14 15 9,65 9,33 9,07 8,86 8,68 7,21 6,93 6,70 6,51 6,36 6,22 5,95 5,71 5,56 5,42 5,67 5,41 5,21 5,04 4,89 5,32 5,06 4,86 4,69 4,56 5,07 4,82 4,62 4,46 4,32 4,74 4,50 4,30 4,14 4,00 16 17 18 19 20 8,53 8,40 8,29 8,18 8,10 6,23 6,11 6,01 5,93 5,85 5,29 5,18 5,09 5,01 4,94 4,77 4,67 4,58 4,50 4,43 4,44 4,34 4,25 4,17 4,10 4,20 4,10 4,01 3,94 3,87 3,89 3,79 3,71 3,63 3,53 21 22 23 24 25 8,02 7,95 7,88 7,82 7,77 5,76 5,72 5,66 5,61 5,57 4,87 4,82 4,76 4,72 4,68 4,37 4,31 4,26 4,22 4,18 4,04 3,99 3,94 3,90 3,85 3,81 3,76 3,71 3,67 3,63 3,51 3,45 3,41 3,36 3,32 26 27 28 29 30 7,72 7,68 7,64 7,60 7,56 5,53 5,49 5,45 5,42 5,39 4,64 4,60 4,57 4,54 4,51 4,14 4,11 4,07 4,04 4,02 3,82 3,76 3,75 3,73 3,70 3,59 3,56 3,53 3,50 3,47 3,29 3,26 3,23 3,20 3,17 40 60 120 7,31 7,08 6,85 6,63 5,18 4,98 4,79 4,61 4,31 4,13 3,95 3,76 3,83 3,65 3,48 3,32 3,51 3,34 3,17 3,02 3,29 3,12 2,96 2,80 2,99 2,82 2,66 2,51 24 F-Wert-Tabellen 297 280 F(99 %) f2\f1 12 15 20 30 60 1 2 3 4 5 6.106,00 99,42 27,05 14,37 9,89 6.157,00 99,43 26,87 14,20 9,72 6.209,00 99,45 26,69 14,02 9,55 6.261,00 99,47 26,50 13,84 9,38 6.313,00 99,48 26,32 13,65 9,20 6.366,00 99,50 26,13 13,46 9,02 6 7 8 9 10 7,72 6,67 5,67 5,11 4,71 7,56 6,31 5,52 4,96 4,56 7,40 6,16 5,36 4,81 4,41 7,23 5,99 5,20 4,65 4,25 7,06 5,82 5,03 4,48 4,05 6,88 5,65 4,86 4,31 3,91 11 12 13 14 15 4,40 4,16 3,96 3,80 3,67 4,25 4,01 3,82 3,66 3,52 4,10 3,86 3,66 3,51 3,37 3,94 3,70 3,51 3,35 3,21 3,78 3,54 3,34 3,18 3,05 3,60 3,36 3,17 3,00 2,87 16 17 18 19 20 3,55 3,46 3,37 3,30 3,23 3,41 3,31 3,23 3,15 3,09 3,26 3,16 3,08 3,00 2,94 3,10 3,00 2,92 2,84 2,76 2,93 2,83 2,75 2,67 2,61 2,75 2,65 2,57 2,49 2,42 21 22 23 24 25 3,17 3,15 3,07 3,03 2,99 3,03 2,98 2,93 2,89 2,85 2,88 2,83 2,78 2,74 2,70 2,72 2,67 2,62 2,58 2,54 2,55 2,50 2,45 2,40 2,36 2,36 2,31 2,26 2,21 2,17 26 27 28 29 30 2,96 2,93 2,90 2,87 2,84 2,81 2,78 2,75 2,73 2,70 2,66 2,63 2,60 2,57 2,55 2,50 2,47 2,44 2,41 2,39 2,33 2,29 2,26 2,23 2,21 2,13 2,10 2,06 2,03 2,01 40 60 120 2,66 2,50 2,34 2,18 2,52 2,35 2,19 2,04 2,37 2,20 2,03 1,88 2,20 2,05 1,86 1,70 2,02 1,84 1,66 1,47 1,80 1,60 1,38 1,00 298 Teil C: Versuchsplanung mit Minimal- Experimenten (DoE) 281 F(99,9 %) f2\f1 1 2 3 4 5 6 8 1 2 3 4 5 4.053,00 998,50 167,00 74,14 47,18 5.000,00 999,00 148,50 61,25 37,12 5.404,00 999,20 141,10 56,18 33,20 5.625,00 999,20 137,10 53,44 31,09 5.764,00 999,30 134,60 51,71 29,75 5.859,00 999,30 132,80 50,53 28,84 5.981,00 999,40 130,60 49,00 27,64 6 7 8 9 10 35,51 29,25 25,42 22,86 21,04 27,00 21,69 18,49 16,39 14,91 23,70 18,77 15,83 13,90 12,55 21,92 17,19 14,39 12,56 11,28 20,81 16,21 13,49 11,75 10,48 20,03 15,52 12,86 11,13 9,92 19,03 14,63 12,04 10,37 9,20 11 12 13 14 15 19,69 18,64 17,81 17,14 16,59 13,81 12,97 12,31 11,78 11,34 11,56 10,80 10,21 9,73 9,34 10,35 9,63 9,07 8,62 8,25 9,58 8,89 8,35 7,92 7,57 9,05 8,38 7,86 7,43 7,09 8,35 7,71 7,21 6,80 6,47 16 17 18 19 20 16,12 15,72 15,38 15,08 14,82 10,97 10,66 10,39 10,16 9,95 9,00 8,73 8,49 8,28 8,10 7,94 7,68 7,46 7,26 7,10 7,27 7,02 6,81 6,62 6,46 6,81 6,56 6,35 6,18 6,02 6,19 5,96 5,76 5,59 5,44 21 22 23 24 25 14,59 14,38 14,19 14,03 13,88 9,77 9,61 9,47 9,34 9,22 7,94 7,80 7,67 7,55 7,45 6,95 6,81 6,69 6,59 6,49 6,32 6,19 6,08 5,98 5,88 5,88 5,76 5,65 5,55 5,46 5,31 5,19 5,09 4,99 4,91 26 27 28 29 30 13,74 13,61 13,50 13,39 13,29 9,12 9,02 8,93 8,85 8,77 7,35 7,27 7,19 7,12 7,05 6,41 6,33 6,25 6,19 6,12 5,80 5,73 5,66 5,59 5,53 5,38 5,31 5,24 5,18 5,12 4,83 4,76 4,69 4,64 4,58 40 60 120 12,61 11,97 11,38 10,83 8,25 7,76 7,32 6,91 6,60 6,17 5,79 5,42 5,70 5,31 4,95 4,62 5,13 4,76 4,42 4,10 4,73 4,37 4,04 3,74 4,21 3,87 3,55 3,27 24 F-Wert-Tabellen 299 282 F(99,9 %) f2\f1 12 15 20 30 40 60 1 2 3 4 5 6.107,00 999,40 128,30 47,41 26,42 6.158,00 999,40 127,40 46,76 25,91 6.209,00 999,40 126,40 46,10 25,39 6.261,00 999,50 125,40 45,43 24,87 6.287,00 999,50 125,00 45,09 24,60 6.313,00 999,50 124,50 44,75 24,33 6.366,00 999,50 123,50 44,05 23,79 6 7 8 9 10 17,99 13,71 11,19 9,57 8,45 17,56 13,32 10,84 9,24 8,13 17,12 12,93 10,48 8,90 7,80 16,67 12,53 10,11 8,55 7,47 16,44 12,33 9,92 8,37 7,30 16,21 12,12 9,73 8,19 7,12 15,75 11,70 9,33 7,81 6,76 11 12 13 14 15 7,63 7,00 6,52 6,13 5,81 7,32 6,71 6,23 5,85 5,54 7,01 6,40 5,93 5,56 5,25 6,68 6,09 5,63 5,25 4,95 6,52 5,93 5,47 5,10 4,80 6,35 5,76 5,30 4,94 4,64 6,00 5,42 4,97 4,60 4,31 16 17 18 19 20 5,55 5,32 5,13 4,97 4,82 5,27 5,05 4,87 4,70 4,56 4,99 4,78 4,59 4,43 4,29 4,70 4,48 4,30 4,14 4,00 4,54 4,33 4,15 3,99 3,86 4,39 4,18 4,00 3,84 3,70 4,06 3,85 3,67 3,51 3,38 21 22 23 24 25 4,70 4,58 4,48 4,39 4,31 4,44 4,33 4,23 4,14 4,06 4,17 4,06 3,96 3,87 3,79 3,88 3,78 3,68 3,59 3,52 3,74 3,63 3,53 3,45 3,37 3,58 3,48 3,38 3,29 3,22 3,26 3,15 3,05 2,97 2,89 26 27 28 29 30 4,24 4,17 4,11 4,05 4,00 3,99 3,92 3,86 3,80 3,75 3,72 3,66 3,60 3,54 3,49 3,44 3,38 3,32 3,27 3,16 3,30 3,23 3,18 3,12 3,07 3,15 3,08 3,02 2,97 2,92 2,82 2,75 2,69 2,64 2,59 40 60 120 3,64 3,31 3,02 2,74 3,40 3,08 2,78 2,51 3,15 2,83 2,53 2,27 2,87 2,55 2,26 1,99 2,73 2,41 2,11 1,84 2,57 2,25 1,95 1,66 2,23 1,89 1,54 1,00 300 Teil C: Versuchsplanung mit Minimal- Experimenten (DoE) 283 25 Übungen zu Teil C 1 Einleitung 301 284 1. Übung Es wird vermutet, dass die Lebensdauer (Anzahl der Überrollungen/ Zeit) einer Oberflächenhärteschicht sehr stark von der Belastung F (N) und der Drehzahl n 1 min beeinflusst wird. Aus diesem Grunde soll eine Versuchsreihe gefahren werden. Folgende Skizze soll die Problemstellung an einer Walzenstufe für Rotationsdruck nochmals verdeutlichen: Grübchenbildung Die Lebensdauer ist dann erschöpft, wenn auf der Oberfläche erste Grübchen erkennbar sind. Um diesen Punkt auszutesten, sollen statistisch geplante Versuche durchgeführt werden. Der Versuchsplan gestaltet sich folgendermaßen: Belastung F (N) Drehzahl 7.000 8.000 250 350 1 min n Bild 1: Schäden an Härteschichten 302 Teil C: Versuchsplanung mit Minimal- Experimenten (DoE) 285 Somit ergeben sich vier Kombinationsmöglichkeiten, die nachstehend aufgeführt sind: Versuchs- Nr. Planmatrix Belastung Drehzahl N 1 min A B 1 7.000,000 250,000 2 8.000,000 250,000 3 7.000,000 350,000 4 8.000,000 350,000 Pro Versuchskombination werden zwei Versuche durchgeführt, um die Ergebnisse statistisch abzusichern und die Versuchsstreuung erfassen zu können. Die Ergebnisse sowie die daraus berechneten Mittelwerte ergeben sich wie folgt: Versuchs- Nr. Antwortmatrix der erreichten Betriebsstunden Zusammengefasste Versuchsergebnisse j 1 y j 2 y j 3 y j 4 y i y i s 1 432,000 434,000 433,000 2,000 2 403,000 411,000 407,000 32,000 3 363,000 380,000 371,500 144,500 4 345,000 351,000 348,000 18,000 Unter Zuhilfenahme der „Matrix der unabhängigen Variablen“ lassen sich Effekte und die Summen der quadratischen Abweichungen (werden zu Erstellung der ANOVA-Tabelle benötigt) bestimmen. Übungsaufgaben zu Teil C 303 286 Versuchs- Nr. Matrix der unabhängigen Variablen I A B AB 1 + - - + 2 + + - - 3 + - + - 4 + + + + Effektmatrix x 1.559,500 755,000 719,500 781,000 x 804,500 840,000 778,500 x 1.559,500 -49,500 -120,500 2,500 Effekt x 389,875 -24,750 -60,250 1,250 SQ x 1.225,125 7.260,125 3,125 Die ANOVA-Tabelle ergibt sich dementsprechend zu: Spalte x SQ x dF x V x F F(95 %) F(99 %) F(99,9 %) Signifikanz A 1.225,125 1 1.225,125 24,939 7,709 21,198 74,127 ** B 7.260,125 1 7.260,125 147,789 *** AB 3,125 1 3,125 0,064 Rest 196,500 4 49,125 Total 8.684,875 7 Um jedoch die Ergebnisse aus dem Versuchsplan besser interpretieren zu können, werden so genannte Haupteffektdiagramme erstellt. 304 Teil C: Versuchsplanung mit Minimal- Experimenten (DoE) 287 402,25 377,50 365,00 370,00 375,00 380,00 385,00 390,00 395,00 400,00 405,00 - + A 420,00 359,75 320,00 330,00 340,00 350,00 360,00 370,00 380,00 390,00 400,00 410,00 420,00 430,00 - + B Ein Wechselwirkungsdiagramm ist ebenfalls darstellbar: Übungsaufgaben zu Teil C 305 288 433,00 371,50 407,00 348,00 300,00 350,00 400,00 450,00 500,00 B- B+ A- A+ Weiterhin lassen sich noch die Effekte grafisch visualisieren. A B AB -80,000 -60,000 -40,000 -20,000 0,000 20,000 40,000 60,000 VB 99,9% VB 99% VB 95% 306 Teil C: Versuchsplanung mit Minimal- Experimenten (DoE) 289 2. Übung Ein Hersteller von Türfeststellern wird zunehmend mit Kundenreklamationen konfrontiert, die die Lebensdauer der Geräte bemängeln. Aus Erfahrung weiß man, dass die Geräte einen Dauerlaufversuch mit 30.000 Auf-/ Zubetätigungen überstehen müssen und dabei nur einen geringen Abfall des so genannten Haltemomentes (ca. 50 Nm 10 %) zeigen dürfen. Der Aufbau der Geräte ist wie folgt: In einem Gehäuse werden zwei Rollen über zwei vorgespannte Gummifedern auf eine Haltestange gepresst. Die Haltestange verfügt auf der Oberseite über mehrere Ausstellungen, die die Halteposition der Türe markieren. Um ein Haltemoment bzw. die Lebensdauer garantieren zu können, muss das System unter Umwelteinflüssen optimiert werden. Änderbare Konstruktionsparameter: A = Gummifeder 1 A = Gummifeder als Block 2 A = gekerbte Gummifeder B = Gummifeder-Material 1 B = Qualität HTV 2 B = Qualität NBR C = Rollenhalter-Geometrie 1 C = ohne Anlaufschrägen 2 C = mit Anlaufschrägen Die Umweltbedingungen sind hierbei: D = Fettung 1 D = viel Fett 2 D = wenig Fett 3 D = kein Fett E = Temperatur 1 E = 20 °C 2 E = 95 °C 3 E = - 30 °C Diese Versuchsaufgabe kann mit der Taguchi-Methode unter Nutzung von inneren und äußeren Feldern recht ökonomisch bearbeitet werden. Das innere Feld kann als minimales 3 2 -Feld (d. h. ) 2 ( L 3 4 ) und das äußere Feld als anzupassendes 2 3 -Feld (d. h. ) 3 ( L 4 9 ) identifiziert werden. Damit ergibt sich als Versuchsschema: Übungsaufgaben zu Teil C 307 290 4 4 9 3 L 3 2 1 1 2 3 4 5 6 7 8 9 1 2 3 1 3 4 2 L 2 3 4 Die Parameter in der inneren Matrix können dabei nicht beliebig belegt werden, weil nur die Spalten 1 und 2 unabhängig sind und die Spalte 3 als Wechselwirkungsspalte vorgesehen ist. Ähnlich verhält es sich mit der äußeren Matrix, hierin sind wieder die Spalten 1 und 2 unabhängig bzw. die Spalten 3 und 4 Wechselwirkungsspalten. Belegung der inneren Matrix Unter den Parametern A, B, C ist zu vermuten, dass zwischen A und B eine Wechselwirkung (d. h. ein gemeinsamer Effekt, der sich aus der Stellung der Parameter ergibt) besteht, jedoch der Parameter C unabhängig ist. Um somit die tatsächliche Faktorwirkung bestimmen zu können, muss die folgende Belegung von 4 L vorgenommen werden: 1 2 3 C A B Belegung der äußeren Matrix Von der äußeren Matrix werden mit D und E nur zwei Spalten besetzt, mögliche Wechselwirkungen befinden sich in anderen Spalten, die aber weiter nicht belegt werden. Somit lässt sich 9 L wie folgt belegen: 1 2 3 4 D E 1 L 2 L 1 L , 2 L = Leerspalten ohne Belegung 308 Teil C: Versuchsplanung mit Minimal- Experimenten (DoE) 291 Versuchsmatrix I2 1 2 3 3 1 2 2 3 1 I1 1 2 3 2 3 1 3 1 2 E 1 2 3 1 2 3 1 2 3 D 1 1 1 2 2 2 3 3 3 Nr. C A B 1 2 3 4 5 6 7 8 9 y s S/ N 1 1 1 1 60 55 40 60 56 36 55 48 36 49,56 9,876 14,01 2 1 2 2 58 54 35 49 43 32 69 61 47 49,78 12,09 12,29 3 2 1 2 52 42 45 53 57 50 51 55 48 50,33 4,743 20,52 4 2 2 1 57 58 48 53 56 55 54 50 52 53,67 3,279 24,28 Das S/ N-Verhältnis berechnet sich wie folgt: 2 2 10 s y log 10 N / S . Je höher das Verhältnis 2 2 s y ist, umso geringer reagiert das Signal 2 y auf Störungen des Zufallsfehlers. Ein großer Wert von S/ N weist auf geeignete Steuergrößen hin. Um nun die robusteste Einstellung zu finden, werden die einzelnen Parameterausprägungen in dem umseitigen Effektediagramm dargestellt. Übungsaufgaben zu Teil C 309 292 Effektediagramm der Mittelwerte: C A B 49,4 49,6 49,8 50,0 50,2 50,4 50,6 50,8 51,0 51,2 51,4 51,6 51,8 52,0 52,2 1 2 1 2 1 2 Effektediagramm bezüglich S/ N: C A B Benutzerdef. S/ N-Ratio 12 13 14 15 16 17 18 19 20 21 22 23 1 2 1 2 1 2 Die optimale Einstellung der Parameter lautet: A = Gummifeder gekerbt B = Gummifeder-Material Qualität HTV C = Rollenhalter-Geometrie mit Anlaufschrägen 310 Teil C: Versuchsplanung mit Minimal- Experimenten (DoE) 293 Übungsaufgaben zu Teil C 311 294 Stichwortverzeichnis Abweichungsprodukte 92 Abweichungsquadrate 96, 91 Adapter 15 Akkumulationsansätze 147 Aktivierungsenergie 182 Alternativhypothese 75 Amplitudenkollektiv 149 ANOM 269 ANOVA 269 Anriss technischer 145 Anzahl Prüflinge 189 Arhenius-Modell 183 Ausfalldichte 174 Ausfallquote 107, 129, 139 Ausfallrate 55, 107, 109, 138,174 Ausfallsummenfunktion 43, 135 Ausfallverteilungsfunktion 190 Ausfallwahrscheinlichkeit 167 Ausfallwahrscheinlichkeitsdichte 190 Ausreißerprüfung 84 Ausreißer-Test 83, 85 Badewannenkurve 177 Bayes-Statistik 221, 225 Belastung deterministische 148 Belastungsbereiche 147 Benard-Näherung 197 Beobachtungen 89 Bernoulli-Schema 51 Bernoulli-Versuch 48ff. Bestimmtheitsmaß 92, 94, 99 Betriebsfestigkeitsbereiche 148 Beurteilungstabellen 86 Binomial-Ansatz 229 Binomialverteilung 48 Blöcke 26 Boole’sche Theorie 169ff. Box-Cox-Transformation 45 Box-Plot 59, 110 Brucharbeit 152 Bruchlastspielzahl 162 CDR 37 Chi-Quadrat-Test 79 Coffin-Manson-Beziehung 181 Confidenz Level 62 Datenauswertung 202 Datenschnelltest n. David 46, 104 DfT 8 Dichte 50 Dichtefunktion 46, 49f., 53f., 134f. DoE 25, 26, 28, 269 DoE-Auswertetechniken 28 Dubey-Ansatz 180 Dubey-Formel 207 Effektanalyse 273 Effektdiagramme 27 Effekte 28 Elektronikbauteile 182 Entwicklungsgeschwindigkeit 38 Ereignisse 48 Erfolgslauf 221 Erfolgswahrscheinlichkeit 50f. Ergebnisvisualisierung 35 Erprobung zeitraffende 180 Erwartungswert 44, 46, 51ff., 55, 68, 174 Exponential-Funktion 174 Exponentialverteilung 52 Eyring-Modell 182 Failure 167 Fehlerfortpflanzungsgesetz 68ff. FEM 149 Fisher-Wert 81 FIT 175 FMEA 142 Forman-Gleichung 161, 164 Formparameter 179, 190, 206 Freiheitsgrade 78 Frühausfälle 133 FTA 142 F-Test 81 Gammafunktion 55, 192 Gauß-Quantile 66 Großgesamtheit 19 Grubbs-Test 83 Grundgesamtheit 18ff. GUM 65 Haibach 145 Häufigkeit 46 Häufigkeitssummen 197 Häufigkeitsverteilung 41 Hauptwirkung 272f. Histogramm 134ff. Hypothesentests 75 295 Inspektion 21 Integration stufenweise 161 Interquartilabstand 59 Inverse Power Law 181 Irrtumsniveau 78 Johnson-Verfahren 216 Kanban 36 Kennfunktion 148 Klassenanzahl 198 Klassenbreite 135 Klassenhäufigkeit 47 Klassierung 149, 201, 204 Kollektivbildung 149 Kollektivschädigung 152 Kolmogoroff-Smirnoff 211 Komponenten, elektronische 171 Konfidenzintervall 45, 60, 62, 66, 76 Korrelation 91ff. Korrelationskoeffizient 94, 99 Kovarianz 91 Laborbericht 30 Laborprüfzeit 184 Laborprüfzeit, notwendige 61 Larson-Nomogramm 229ff. Lastverläufe 145 Lebensdauersimulation 149 Lebensdauer, charakteristische 189f. Lebensdauer, mittlere 199 Lebensdauernetz 193ff. Lebensdauerverhältnis 224 Lebensdauerwerte 140 Lipson&Sheth-Formel 61 Log-Normalverteilung 45 Manson 145 Maschinenrichtlinie 10, 34 Maßkette, additive 44 Matrixexperimente 269 Median 56, 59 Medianwerte 190 Messdatenauswertung grafische 35 Messfehler 65 Messprinzipien 21 Messreihen, multiple 87 MIL-Standard 185 Mindestversuchsumfang 215 Mindestzuverlässigkeit 223 Miner, elementar 151 Mischverteilung 206 Mittelwertanalyse 276 Mittelwert, arithmetischer 58 Mittelwert, geometrischer 58 Mittelwerttest 87 Mittel winsorisiert 59 MKS 149 Modalwert 57 Montagesimulation 70 MTBF 139, 176 MTTF 139 MTTFF 139 MTTR 144 Multiplikationsansatz 179 Normalengleichung 97 Normalverteilung 41ff. Nullhypothese 75, 77, 79 Obersystem 133 Obsoleszenz 22 Palmgren-Miner 142, 145, 147 Parallelanordnung 168, 170ff. Parameter 16 Paris-Erdogan-Gleichung 159 Pearson-Test 83 Planungskonzept 16 Poisson-Approximation 52 Poisson-Verteilung 51 Probandenanzahl 233 Produkte, robuste 133 Produktgesetz 232 Produkttests 23 Prüfanzahl, notwendige 61 Prüfaufwand 60 Prüffähigkeit 15 Prüflos, minimales 60 Prüfzeit 221 Q-Quantil 84 Regression 91 Regressionsgerade 95 Regressionsgleichung 99 Regressionskoeffizient 99 Reifegradanalyse 10 Reifegradmodelle 167 Reliability 167 Restlebensdauer 145 Risikomanagement 9 Rissausbreitung 156 296 Risswachstum 146 Risswachstumsgeschwindigkeit 158ff. Scatter Diagramm 96 Schadensakkumulation 151 Schadensakkumulationsverfahren 142 Schädigung 151 Schulden technische 37 Scrum 24, 37 Serienanordnung 169ff. Shainin 265, 274 Sicherheit, funktionale (FuSi) 9 Signifikanzniveau 78 S/ N-Ratio 280 Spannungsintensität 157 Spannungsintensitätsfaktor 158 Spannungsverhältnis 150 Spannweite 135 Sprint 36 Standardabweichung 192 Standardnormalverteilung 42 Stichprobenverteilung 19 Stichprobneauswertung 45 Störgrößen 270 Straßenunebenheiten 148 Streudiagramme 93 Streuung 57 Student-Verteilung 78 Stufen 271 Sudden-Death-Prüfung 216 Summenhäufigkeit 136 Systemstruktur 133, 168 Systemverhalten 172 t 10 ,t 50 -Lebensdauer 192 Taguchi-Pläne 269 TDD 13, 38 Temperaturwechsel 180 Test beschleunigter 23 Testfähigkeit 20 Testing, agile 36ff. Tests, statistische 75ff. Testverfahren 20 Test, verschiedene 18 Timebox 36 Transformationsgröße 42 t-Testgröße 85 t-Verteilung 61, 78 Überlebenswahrscheinlichkeit 51, 53, 137, 167 Unsicherheitsband 211 Urwert-Messreihe 56 User-Stories 36 Varianz 46, 51f., 53, 55, 67, 79 Varianzanalyse 269 Varianzzerlegung 66 Variationskoeffizient 57 Vermutung 18 Verschleißausfälle 143 Versuchsbericht 30 Versuchsdokumentation 30, 32 Versuchsplan 25ff. Versuchspläne 269 Versuchsplanung 274 Versuchsplanungskonzept 25 Versuchsprotokoll 30 Versuchsziele 25 Verteilungsfunktion 42,46, 50ff. Verteilungskenngrößen 69 Vertrauensbereich 66 Vertrauensgrenzen 211 Vorbelastungszeit 176 Vorinformation 225 Wartung 143 Wechselwirkung 27, 269, 272 WEIBAYES 242 Weibull-Analyse 142 Weibull-Auswertung 221 Weibull-Erwartungswert 199 Weibull-Standardabweichung 199 Weibull-Verteilung 41, 54, 109, 186, 206 Whisker-Plot 59 Wöhlerlinie 150, 153 Wurzel-k-Gesetz 44 Zeit, ausfallfreie 176, 193 Zeitlimit 197 Zeittransformation 193 Zeitwert 174 Zenner-Liu 153, 155ff. Zielgrößen 269 Zufallsausfälle 176 Zufallsexperiment 48 Zufallsstreubereich 45 Zufallsvariable 41 Zuverlässigkeitsfunktion 171