Details

Angewandte Stochastik und Versuchsplanung in den Natur- und Ingenieurwissenschaften


Angewandte Stochastik und Versuchsplanung in den Natur- und Ingenieurwissenschaften

mit Beispielen in R und SAS
1. Aufl.

von: Christhard Schmid

88,99 €

Verlag: Wiley-VCH (D)
Format: EPUB
Veröffentl.: 03.08.2023
ISBN/EAN: 9783527822379
Sprache: deutsch
Anzahl Seiten: 432

DRM-geschütztes eBook, Sie benötigen z.B. Adobe Digital Editions und eine Adobe ID zum Lesen.

Beschreibungen

Dieses Praktikerbuch ist zum einen eine anwendungsnahe Einführung in die Wahrscheinlichkeitstheorie und Statistik. Zum anderen erklärt es die statistische Versuchsplanung, die für die Planung und saubere Auswertung von Versuchsreihen von entscheidender Wichtigkeit ist. Herleitungen und Beweise werden dabei ausführlich erläutert, ohne sich in mathematischen Details zu verlieren. In mehr als 160 Beispielen illustriert das Buch die Umsetzung alltagssprachlich formulierter Probleme in wahrscheinlichkeitstheoretische bzw. statistische Modelle - und deren Implementierung in R und SAS.
<p><b>1 Einleitung 1</b></p> <p>1.1 Hauptbegriffe 1</p> <p>1.2 Zielgruppen 2</p> <p>1.2.1 Einsteiger/innen 2</p> <p>1.2.2 Physiker/innen 3</p> <p>1.2.3 SAS-Anwender/innen 4</p> <p>1.3 Anmerkungen zur Notation 5</p> <p>1.4 Symbole und Formelzeichen 6</p> <p>1.5 Gliederung des Buches 11</p> <p>1.6 Datenmaterial zu diesem Buch 12</p> <p><b>2 Wahrscheinlichkeitstheorie 13</b></p> <p>2.1 Was ist Wahrscheinlichkeit? 13</p> <p>2.1.1 Ausgangssituation 13</p> <p>2.1.2 Ermittlung von klassischen Wahrscheinlichkeiten 14</p> <p>2.1.3 Formale Definition des Begriffs Wahrscheinlichkeit 16</p> <p>2.2 Wahrscheinlichkeit abstrakt mathematisch 17</p> <p>2.2.1 Der Wahrscheinlichkeitsraum 17</p> <p>2.2.2 Bedingte Wahrscheinlichkeit und statistische Unabhängigkeit 18</p> <p>2.2.3 Zufallsvariablen 20</p> <p>2.2.4 Die kumulative Verteilungsfunktion 20</p> <p>2.2.5 Beispiele für kumulative Verteilungen 21</p> <p>2.2.6 Die Dichtefunktion 23</p> <p>2.2.7 Multidimensionale Verteilungen 25</p> <p>2.3 Erwartungswert, Varianz, Korrelation 25</p> <p>2.3.1 Varianz von Funktionen von Zufallsvariablen 26</p> <p>2.3.2 Das Gaußsche Fehlerfortpflanzungsgesetz 28</p> <p>2.4 Charakteristische Funktion und Momente 29</p> <p>2.4.1 Die charakteristische Funktion einer Verteilung 29</p> <p>2.4.2 Momente und Kumulanten 29</p> <p>2.4.3 Kumulanten niedrigster Ordnung 30</p> <p>2.4.4 Zentrale Momente niedrigster Ordnung 31</p> <p>2.5 Die Berechnung von Verteilungen mit Hilfe der Deltafunktion 31</p> <p>2.5.1 Verteilung von Funktionen einer Zufallsvariablen 31</p> <p>2.5.2 Die Erwartungswerte von Delta- und Thetafunktion 32</p> <p>2.5.3 Verallgemeinerungen auf mehrere Zufallsvariable 32</p> <p>2.6 Grenzverteilungen und zentraler Grenzwertsatz 33</p> <p>2.6.1 Historischer Exkurs zur Gauß-Verteilung 33</p> <p>2.6.2 Zentraler Grenzwertsatz nach Lindenberg-Lévy 34</p> <p>2.6.3 Lévy-Verteilungen 35</p> <p>2.7 Quantile 37</p> <p>2.8 Ergänzungen 38</p> <p>2.8.1 Symmetrierelationen 38</p> <p>2.8.2 Erwartungswerte von quadratischen Formen 38</p> <p>2.8.3 Kombinatorik 38</p> <p><b>3 Verteilungen 39</b></p> <p>3.1 Eindimensionale diskrete Verteilungen 39</p> <p>3.1.1 Hypergeometrische Verteilung 39</p> <p>3.1.2 Negative hypergeometrische Verteilung 42</p> <p>3.1.3 Binomialverteilung 43</p> <p>3.1.4 Poisson-Verteilung 48</p> <p>3.1.5 Geometrische Verteilung 53</p> <p>3.1.6 Negative Binomialverteilung 55</p> <p>3.1.7 Tabellen der eindimensionalen diskreten Verteilungen 55</p> <p>3.2 Eindimensionale kontinuierliche Verteilungen 58</p> <p>3.2.1 Gauß-Verteilung 58</p> <p>3.2.2 Cauchy-Verteilung 63</p> <p>3.2.3 Chi-Quadrat-Verteilung 65</p> <p>3.2.4 Nichtzentrale Chi-Quadrat-Verteilung 69</p> <p>3.2.5 Student-Verteilung 70</p> <p>3.2.6 Nichtzentrale Student-Verteilung 74</p> <p>3.2.7 F-Verteilung 75</p> <p>3.2.8 Nichtzentrale F-Verteilung 77</p> <p>3.2.9 Exponentialverteilung 77</p> <p>3.2.10 Weibull-Verteilung 79</p> <p>3.2.11 Tabellen der eindimensionalen kontinuierlichen Verteilungen 82</p> <p>3.3 Mehrdimensionale Verteilungen 85</p> <p>3.3.1 n-dimensionale Gauß-Verteilung 85</p> <p>3.3.2 Zweidimensionale Gauß-Verteilung 86</p> <p><b>4 Mathematische Stichproben, Messreihen 87</b></p> <p>4.1 Definition, Mittelwert und Stichprobenvarianz 87</p> <p>4.1.1 Definition einer eindimensionalen Stichprobe und verteilungsunabhängige Eigenschaften 87</p> <p>4.1.2 Einschub: Fehlerrechnung im physikalischen Praktikum 90</p> <p>4.1.3 Verteilung der Stichprobenmomente bei Gauß-Verteilung 92</p> <p>4.2 Konfidenzintervalle 93</p> <p>4.2.1 Begriffe 93</p> <p>4.2.2 Eine Tautologie als Basis 94</p> <p>4.2.3 Die Tautologie für ˆµ und ˆσ<sup>2</sup> 96</p> <p>4.2.4 µ−Konfidenzintervalle bei bekanntem σ 96</p> <p>4.2.5 Beispiele für µ−Konfidenzintervalle bei bekanntem σ 97</p> <p>4.2.6 µ−Konfidenzintervall bei unbekanntem σ 97</p> <p>4.2.7 Beispiele für µ-Konfidenzintervalle bei unbekanntem σ 99</p> <p>4.2.8 Konfidenzintervall für die Varianz σ<sup>2</sup> 105</p> <p>4.2.9 Beispiele für Konfidenzintervalle für die Varianz σ<sup>2 </sup>107</p> <p>4.2.10 Prognoseintervalle 109</p> <p>4.2.11 Beispiele für Prognoseintervalle 109</p> <p>4.3 Parametertests 110</p> <p>4.3.1 Begriffe: Nullhypothese, Prüfgröße, p-Wert 110</p> <p>4.3.2 Der  ,,N-Test“ (Test von µ bei bekanntem σ) 112</p> <p>4.3.3 Beispiele für den N-Test“ 115</p> <p>4.3.4 Der t-Test (Test von µ bei unbekanntem σ) 119</p> <p>4.3.5 Beispiele für den t-Test 120</p> <p>4.3.6 Der t-Verschiebungstest 124</p> <p>4.3.7 Der doppelte ,,N-Test“ 125</p> <p>4.3.8 Beispiele für den doppelten ” N-Test“ 126</p> <p>4.3.9 Der doppelte t-Test 127</p> <p>4.3.10 Beispiele für den doppelten t-Test 128</p> <p>4.3.11 Der asymptotische Test bei ungleichen Varianzen 129</p> <p>4.3.12 Beispiele für den asymptotischen Test 130</p> <p>4.3.13 Test der Varianz σ 2 131</p> <p>4.3.14 Beispiele für Test der Varianz 132</p> <p>4.4 Power-Analyse 133</p> <p>4.4.1 Begriffe: β-Fehler, Power, Güte, OC 133</p> <p>4.4.2 Das Forellenbeispiel 134</p> <p>4.4.3 Illustrationen des ,,Forellenbeispiels“ mit R und SAS 136</p> <p>4.4.4 Die analytische linksseitige ,,µ-power“-Theorie 138</p> <p>4.4.5 R-Werkstatt für die allgemeine ,,µ-power“-Theorie 140</p> <p>4.4.6 Anwendungsbeispiele für die ,,µ-power“-Theorie mit R 140</p> <p>4.4.7 Die analytische ,,µ-sample-size“-Theorie 143</p> <p>4.4.8 R-Werkstatt für die ,,µ-sample-size“-Theorie 144</p> <p>4.4.9 Beispiele für die ,,µ-sample-size“-Theorie mit R 145</p> <p><b>5 Regression 149</b></p> <p>5.1 Einführung 149</p> <p>5.1.1 Was ist Regressionsanalyse? 149</p> <p>5.1.2 Der lineare Regressionsansatz 150</p> <p>5.1.3 Die Modellgleichung 150</p> <p>5.1.4 (Ko-)Varianzanalyse und kategoriale Faktoren 150</p> <p>5.2 Annahmen 151</p> <p>5.2.1 Die acht Annahmen des klassischen linearen Modells 151</p> <p>5.3 Modellparameter, Schätzung und Residuen 153</p> <p>5.3.1 Deterministische Größen im klassischen linearen Modell 153</p> <p>5.3.2 Zufällige Größen im klassischen linearen Modell 154</p> <p>5.3.3 Erwartungswert, Kovarianz und geschätzte Kovarianz der zufälligen Größen 155</p> <p>5.3.4 Ein alternativer Ausdruck für die Varianzen von ˆβ 156</p> <p>5.3.5 Geometrische Eigenschaften aufgrund des KQ-Prinzips 157</p> <p>5.3.6 Prognose für eine zukünftige Versuchseinstellung 158</p> <p>5.4 Quadratsummen und Varianzanalyse 159</p> <p>5.4.1 Quadratsummen und die ,,ANOVA-Tabelle“ 159</p> <p>5.4.2 Additive Zerlegung der korrigierten Gesamtstreuuung 160</p> <p>5.4.3 Berücksichtigung von Mehrfachversuchen 160</p> <p>5.4.4 Zerlegung der Reststreuung bei Mehrfachversuchen 162</p> <p>5.4.5 Das Bestimmtheitsmaß 162</p> <p>5.4.6 Zerlegung der unkorrigierten Gesamtstreuung 163</p> <p>5.5 Verteilungseigenschaften 163</p> <p>5.5.1 Verteilung von Linearkombinationen der Stör-Variablen 164</p> <p>5.5.2 Drei grundlegende Verteilungseigenschaften 164</p> <p>5.5.3 Verteilung der standardisierten Regressionsparameter 165</p> <p>5.5.4 Verteilungseigenschaften der LOF-Quadratsummen 165</p> <p>5.6 Hypothesentests 166</p> <p>5.6.1 Der Overall-F-Test (Goodness-of-Fit-Test) 166</p> <p>5.6.2 Der partielle F-Test 166</p> <p>5.6.3 Der partielle t-Test 167</p> <p>5.6.4 Der Lack-of-Fit-Test 167</p> <p>5.6.5 Resumé: Die vier Tests der linearen Regression 168</p> <p>5.6.6 Output von R und SAS 169</p> <p>5.6.7 Beispiele für Regression und Hypothesentests 171</p> <p>5.7 Konfidenzintervalle und Prognoseintervalle 179</p> <p>5.7.1 Zusammenfassung: Konfidenz- und Prognoseintervalle 179</p> <p>5.7.2 Beispiele 180</p> <p>5.8 Spezialfall: Einfache lineare Regression 191</p> <p>5.8.1 Schwerpunktkoordinaten 191</p> <p>5.8.2 Deterministische Größen 191</p> <p>5.8.3 Zufällige Größen 192</p> <p>5.8.4 Versuchsplanung bei der einfachen linearen Regression 192</p> <p>5.8.5 Quadratsummen und Bestimmtheitsmaß 193</p> <p>5.8.6 Konfidenz- und Prognoseintervall 193</p> <p>5.8.7 Beispiele 193</p> <p>5.9 Modelldiagnose 195</p> <p>5.9.1 Analyse der erklärenden Variablen 195</p> <p>5.9.2 Analyse der Stör-Variablen 200</p> <p>5.9.3 Einflussanalyse 203</p> <p>5.9.4 Das Diagnose-Quartett plot(lm(.)) 205</p> <p>5.9.5 Beispiele zur Modelldiagnose 208</p> <p>5.9.6 Alternative Modellierungsansätze nach Modelldiagnose 215</p> <p>5.10 Nichtlineare Regression 220</p> <p>5.10.1 Schätzverfahren der nichtlinearen Regression 220</p> <p>5.10.2 R-Beispiele für Nichtlineare Regression 221</p> <p><b>6 Varianzanalyse 225</b></p> <p>6.1 Einführung 225</p> <p>6.1.1 Was ist Varianzanalyse? 225</p> <p>6.1.2 Was ist Kovarianzanalyse? 226</p> <p>6.1.3 Die Modelle der Varianzanalyse 226</p> <p>6.1.4 Die hierarchische Fragestellung in der ANOVA und das Problem der mehrfachen Tests 227</p> <p>6.1.5 Varianzanalyse mit R 228</p> <p>6.2 Varianzanalyse mit festen Effekten 229</p> <p>6.2.1 One-way ANOVA (einfaktorielle Varianzanalyse) 229</p> <p>6.2.2 Two-way ANOVA mit einfacher Besetzung 238</p> <p>6.2.3 Two-way ANOVA mit mehrfacher Besetzung 242</p> <p>6.2.4 Three-way und Four-way ANOVA (einfache Besetzung): Lateinische und Griechisch-Lateinische Quadrate 253</p> <p>6.2.5 Kovarianzanalyse mit festen Effekten (ANCOVA) 257</p> <p><b>7 Versuchsplanung 263</b></p> <p>7.1 Einführung 263</p> <p>7.1.1 Einsatzgebiet, Zielsetzung 263</p> <p>7.1.2 Zwei Grundprinzipien der Versuchsplanung 264</p> <p>7.1.3 Arten und Zielsetzungen von Versuchsplänen 265</p> <p>7.1.4 Momentenmatrix und Design-Momente 267</p> <p>7.2 Vollfaktorielle Pläne 269</p> <p>7.2.1 Vollfaktorielle Versuchspläne (Definition) 269</p> <p>7.2.2 Konstruktion faktorieller Pläne mit R 272</p> <p>7.2.3 Auswertung vollfaktorieller Versuche mit FrF2 274</p> <p>7.3 Teilfaktorielle Pläne 288</p> <p>7.3.1 Der Begriff Vermengung (Confounding) 288</p> <p>7.3.2 Generatoren und Alias-Strukturen 288</p> <p>7.3.3 Resolution, Aberration und andere Begriffe 290</p> <p>7.3.4 Konstruktion teilfaktorieller Pläne mit R 293</p> <p>7.3.5 Anzahl der Versuche versus möglichem Nutzen 300</p> <p>7.3.6 Screening Fallstudien mit 2<sup>k−s</sup> −Plänen 301</p> <p>7.3.7 Aufspaltung vollfaktorieller 2<sup>k</sup>-Pläne in Blöcke 311</p> <p>7.4 Qualitätskriterien für Versuchspläne 316</p> <p>7.4.1 Die Vorhersagevarianz 316</p> <p>7.4.2 Drehbarkeit, Orthogonalität und Uniformität 323</p> <p>7.5 Response Surface Methodology (RSM) 325</p> <p>7.5.1 Einführung 325</p> <p>7.5.2 Bausteine der RSM, FO und SO Designs 328</p> <p>7.5.3 Central Composite Designs (CCD) 330</p> <p>7.5.4 RSM Werkzeuge 332</p> <p>7.6 Beispiele für RSM-Anwendungen 339</p> <p>7.6.1 Quadratische Regression mit rsm 339</p> <p>7.6.2 Umgang mit flachen Extrema und Sattelpunkten 347</p> <p>7.6.3 Eine Beispiel-Serie für eine sequentielle Optimierung bei drei Einflussgrößen 355</p> <p>7.7 Optimale Pläne 370</p> <p>7.7.1 Einleitung 370</p> <p>7.7.2 Optimalitätskriterien 371</p> <p>7.7.3 Die Konstruktion optimaler Versuchspläne 373</p> <p>7.7.4 Verallgemeinerte (approximative) optimale Pläne 379</p> <p>7.8 Mixturpläne 381</p> <p>7.8.1 Einleitung 381</p> <p><b>A Mathematische Hilfsmittel 385</b></p> <p>A.1 Substitutionsregel für Mehrfachintegrale 385</p> <p>A.2 Integrale 385</p> <p>A.3 Die Deltafunktion 386</p> <p>A.4 Matrizen 387</p> <p>A.4.1 Definitionen und Schreibweisen 387</p> <p>A.4.2 Orthogonale und orthonormale Matrizen 388</p> <p>A.4.3 Idempotente Matrizen 388</p> <p>A.4.4 Mittelwertzentrierung mit idempotenter Matrix C 389</p> <p>A.4.5 Der Rang einer Matrix 389</p> <p>A.4.6 Der Nullraum einer n × p Matrix A 390</p> <p>A.4.7 Die Inverse einer Matrix 390</p> <p>A.4.8 Die Determinante einer quadratischen Matrix 391</p> <p>A.4.9 Die Spur einer Matrix 391</p> <p>A.4.10 Hadamard-Matrizen 392</p> <p>R Index der 95 R-Beispiele 393</p> <p>S Index der 61 SAS-Programme 397</p> <p>Literaturverzeichnis 399</p> <p>Sachregister 411 </p>
Christhard Schmid war bis zu seinem Ruhestand außerplanmäßiger Professor für Physik an der Universität Ulm. Schon seine Diplomarbeit (Störbandleitung in Halbleitern) war eine Anwendung der mathematischen Statistik. Nach Promotion und Assistententätigkeit am Institut für theoretische Physik der Uni Stuttgart arbeitete er fünf Jahre als theoretischer Polymerphysiker am Institut Laue-Langevin in Grenoble mit zahlreichen Publikationen und abschließender Habilitation an der Uni Ulm. Danach arbeitete er 25 Jahre als angewandter Physiker und als Experte für Statistik/Versuchsplanung bei Bayer Leverkusen. Daneben hielt er Vorlesungen über Theoretische Physik, angewandte Statistik und Versuchsplanung an der Uni Ulm.

Diese Produkte könnten Sie auch interessieren:

Sandburgen, Staus und Seifenblasen
Sandburgen, Staus und Seifenblasen
von: Oliver Morsch
EPUB ebook
21,99 €
Sandburgen, Staus und Seifenblasen
Sandburgen, Staus und Seifenblasen
von: Oliver Morsch
PDF ebook
21,99 €
Wiley-Schnellkurs Statistik
Wiley-Schnellkurs Statistik
von: Reiner Kurzhals
EPUB ebook
15,99 €