Knowledge

Partition of sums of squares

Source 📝

3070: 1487: 3065:{\displaystyle {\begin{aligned}\sum _{i=1}^{n}(y_{i}-{\overline {y}})^{2}&=\sum _{i=1}^{n}(y_{i}-{\overline {y}}+{\hat {y}}_{i}-{\hat {y}}_{i})^{2}=\sum _{i=1}^{n}(({\hat {y}}_{i}-{\bar {y}})+\underbrace {(y_{i}-{\hat {y}}_{i})} _{{\hat {\varepsilon }}_{i}})^{2}\\&=\sum _{i=1}^{n}(({\hat {y}}_{i}-{\bar {y}})^{2}+2{\hat {\varepsilon }}_{i}({\hat {y}}_{i}-{\bar {y}})+{\hat {\varepsilon }}_{i}^{2})\\&=\sum _{i=1}^{n}({\hat {y}}_{i}-{\bar {y}})^{2}+\sum _{i=1}^{n}{\hat {\varepsilon }}_{i}^{2}+2\sum _{i=1}^{n}{\hat {\varepsilon }}_{i}({\hat {y}}_{i}-{\bar {y}})\\&=\sum _{i=1}^{n}({\hat {y}}_{i}-{\bar {y}})^{2}+\sum _{i=1}^{n}{\hat {\varepsilon }}_{i}^{2}+2\sum _{i=1}^{n}{\hat {\varepsilon }}_{i}({\hat {\beta }}_{0}+{\hat {\beta }}_{1}x_{i1}+\cdots +{\hat {\beta }}_{p}x_{ip}-{\overline {y}})\\&=\sum _{i=1}^{n}({\hat {y}}_{i}-{\bar {y}})^{2}+\sum _{i=1}^{n}{\hat {\varepsilon }}_{i}^{2}+2({\hat {\beta }}_{0}-{\overline {y}})\underbrace {\sum _{i=1}^{n}{\hat {\varepsilon }}_{i}} _{0}+2{\hat {\beta }}_{1}\underbrace {\sum _{i=1}^{n}{\hat {\varepsilon }}_{i}x_{i1}} _{0}+\cdots +2{\hat {\beta }}_{p}\underbrace {\sum _{i=1}^{n}{\hat {\varepsilon }}_{i}x_{ip}} _{0}\\&=\sum _{i=1}^{n}({\hat {y}}_{i}-{\bar {y}})^{2}+\sum _{i=1}^{n}{\hat {\varepsilon }}_{i}^{2}=\mathrm {ESS} +\mathrm {RSS} \\\end{aligned}}} 3906: 3194: 3901:{\displaystyle {\begin{aligned}SS_{\text{total}}=\Vert \mathbf {y} -{\bar {y}}\mathbf {1} \Vert ^{2}&=\Vert \mathbf {y} -{\bar {y}}\mathbf {1} +\mathbf {\hat {y}} -\mathbf {\hat {y}} \Vert ^{2},\\&=\Vert \left(\mathbf {\hat {y}} -{\bar {y}}\mathbf {1} \right)+\left(\mathbf {y} -\mathbf {\hat {y}} \right)\Vert ^{2},\\&=\Vert {\mathbf {\hat {y}} -{\bar {y}}\mathbf {1} }\Vert ^{2}+\Vert {\hat {\varepsilon }}\Vert ^{2}+2{\hat {\varepsilon }}^{T}\left(\mathbf {\hat {y}} -{\bar {y}}\mathbf {1} \right),\\&=SS_{\text{regression}}+SS_{\text{error}}+2{\hat {\varepsilon }}^{T}\left(X{\hat {\beta }}-{\bar {y}}\mathbf {1} \right),\\&=SS_{\text{regression}}+SS_{\text{error}}+2\left({\hat {\varepsilon }}^{T}X\right){\hat {\beta }}-2{\bar {y}}\underbrace {{\hat {\varepsilon }}^{T}\mathbf {1} } _{0},\\&=SS_{\text{regression}}+SS_{\text{error}}.\end{aligned}}} 1323: 729: 1318:{\displaystyle {\begin{aligned}\left\|y-{\bar {y}}\mathbf {1} \right\|^{2}&=\left\|{\hat {y}}-{\bar {y}}\mathbf {1} \right\|^{2}+\left\|{\hat {\varepsilon }}\right\|^{2},\quad \mathbf {1} =(1,1,\ldots ,1)^{T},\\\sum _{i=1}^{n}(y_{i}-{\bar {y}})^{2}&=\sum _{i=1}^{n}({\hat {y}}_{i}-{\bar {y}})^{2}+\sum _{i=1}^{n}(y_{i}-{\hat {y}}_{i})^{2},\\\sum _{i=1}^{n}(y_{i}-{\bar {y}})^{2}&=\sum _{i=1}^{n}({\hat {y}}_{i}-{\bar {y}})^{2}+\sum _{i=1}^{n}{\hat {\varepsilon }}_{i}^{2},\\\end{aligned}}} 87:, or spread of the observations about their mean value. Partitioning of the sum of squared deviations into various components allows the overall variability in a dataset to be ascribed to different types or sources of variability, with the relative importance of each being quantified by the size of each component of the overall sum of squares. 4139: 290:
Scaling (also known as normalizing) means adjusting the sum of squares so that it does not grow as the size of the data collection grows. This is important when we want to compare samples of different sizes, such as a sample of 100 people compared to a sample of 20 people. If the sum of squares were
271:
When more data are added to the collection the sum of squares will increase, except in unlikely cases such as the new data being equal to the mean. So usually, the sum of squares will grow with the size of the data collection. That is a manifestation of the fact that it is unscaled.
3917: 291:
not normalized, its value would always be larger for the sample of 100 people than for the sample of 20 people. To scale the sum of squares, we divide it by the degrees of freedom, i.e., calculate the sum of squares per degree of freedom, or variance.
429: 266: 648: 718: 554: 3136: 3183: 3199: 1492: 734: 4134:{\displaystyle {\hat {\varepsilon }}^{T}X=\left(\mathbf {y} -\mathbf {\hat {y}} \right)^{T}X=\mathbf {y} ^{T}(I-X(X^{T}X)^{-1}X^{T})^{T}X={\mathbf {y} }^{T}(X^{T}-X^{T})^{T}={\mathbf {0} }.} 133: 187: 1469: 1433: 1397: 1361: 458: 160: 323: 4290: 192: 563: 4373: 4352: 4332: 4310: 664: 463: 3078: 3075:
The requirement that the model include a constant or equivalently that the design matrix contain a column of ones ensures that
276: 80: 31: 3141: 4392: 4320: 95:
The distance from any point in a collection of data, to the mean of the data, is the deviation. This can be written as
4150: 4253: 651: 655: 318: 76: 98: 4397: 303: 72: 60: 56: 45: 4208: 4196: 4181: 4202: 299: 165: 38: 1438: 1402: 1366: 1330: 4215: 4162: 4276: 4233: 4228: 298:
The above describes how the sum of squares is used in descriptive statistics; see the article on
292: 66: 436: 4369: 4348: 4328: 4306: 4286: 4191: 4218:
that the sum of the squared norms of orthogonal summands equals the squared norm of the sum.
424:{\displaystyle y_{i}=\beta _{0}+\beta _{1}x_{i1}+\cdots +\beta _{p}x_{ip}+\varepsilon _{i}} 138: 17: 4172: 30:
This article is about the partition of sums of squares in statistics. For other uses, see
71:. Mathematically, the sum of squared deviations is an unscaled, or unadjusted measure of 4386: 4223: 4186: 4167: 189:
is the estimate of the mean. If all such deviations are squared, then summed, as in
279:
is simply the number of data points in the collection, minus one. We write this as
1472: 27:
Concept that permeates much of inferential statistics and descriptive statistics
4280: 84: 4149:
Note that the residual sum of squares can be further partitioned as the
261:{\displaystyle \sum _{i=1}^{n}\left(y_{i}-{\overline {y}}\,\right)^{2}} 643:{\displaystyle \mathrm {TSS} =\sum _{i=1}^{n}(y_{i}-{\bar {y}})^{2}} 723:
where this equation is equivalent to each of the following forms:
4199:, the closed subspace orthogonal to a set (especially a subspace) 44:"Variance partitioning" redirects here. Not to be confused with 4303:
Plane Answers to Complex Questions: The Theory of Linear Models
3911:
The elimination of terms in the last line, used the fact that
713:{\displaystyle \mathrm {TSS} =\mathrm {ESS} +\mathrm {RSS} ,} 549:{\displaystyle (y_{i},x_{i1},\ldots ,x_{ip}),\,i=1,\ldots ,n} 4254:"Sum of Squares - Definition, Formulas, Regression Analysis" 3188:
The proof can also be expressed in vector form, as follows:
3131:{\displaystyle \sum _{i=1}^{n}{\hat {\varepsilon }}_{i}=0} 4345:
Prediction and Regulation by Linear Least-Square Methods
3178:{\displaystyle {\hat {\varepsilon }}^{T}\mathbf {1} =0} 3920: 3197: 3144: 3081: 1490: 1441: 1405: 1369: 1363:
is the value estimated by the regression line having
1333: 732: 667: 566: 466: 439: 326: 195: 168: 141: 101: 310:
Partitioning the sum of squares in linear regression
4133: 3900: 3177: 3130: 3064: 1463: 1427: 1391: 1355: 1317: 712: 642: 548: 452: 423: 268:, this gives the "sum of squares" for these data. 260: 181: 154: 127: 3966: 3556: 3455: 3411: 3358: 3315: 3300: 4297:Pre-publication chapters are available on-line. 295:, in turn, is the square root of the variance. 302:for an application of this broad principle to 8: 3511: 3495: 3483: 3445: 3423: 3344: 3322: 3263: 3247: 3218: 4153:plus the sum of squares due to pure error. 4205:of the subspaces of an inner-product space 4122: 4121: 4112: 4102: 4089: 4076: 4070: 4069: 4056: 4046: 4033: 4020: 3995: 3990: 3977: 3961: 3960: 3952: 3934: 3923: 3922: 3919: 3885: 3869: 3843: 3832: 3826: 3815: 3814: 3810: 3798: 3797: 3780: 3779: 3765: 3754: 3753: 3735: 3719: 3689: 3678: 3677: 3663: 3662: 3648: 3637: 3636: 3623: 3607: 3577: 3566: 3565: 3551: 3550: 3539: 3528: 3527: 3514: 3499: 3498: 3486: 3476: 3465: 3464: 3450: 3449: 3448: 3426: 3406: 3405: 3397: 3379: 3368: 3367: 3353: 3352: 3325: 3310: 3309: 3295: 3294: 3286: 3275: 3274: 3266: 3250: 3241: 3230: 3229: 3221: 3209: 3198: 3196: 3164: 3158: 3147: 3146: 3143: 3116: 3105: 3104: 3097: 3086: 3080: 3047: 3033: 3024: 3019: 3008: 3007: 3000: 2989: 2976: 2961: 2960: 2951: 2940: 2939: 2929: 2918: 2898: 2883: 2873: 2862: 2861: 2854: 2843: 2836: 2829: 2818: 2817: 2798: 2783: 2773: 2762: 2761: 2754: 2743: 2736: 2729: 2718: 2717: 2704: 2692: 2681: 2680: 2673: 2662: 2655: 2641: 2632: 2621: 2620: 2604: 2599: 2588: 2587: 2580: 2569: 2556: 2541: 2540: 2531: 2520: 2519: 2509: 2498: 2471: 2459: 2449: 2438: 2437: 2418: 2408: 2397: 2396: 2386: 2375: 2374: 2364: 2353: 2352: 2345: 2334: 2318: 2313: 2302: 2301: 2294: 2283: 2270: 2255: 2254: 2245: 2234: 2233: 2223: 2212: 2184: 2183: 2174: 2163: 2162: 2152: 2141: 2140: 2133: 2122: 2106: 2101: 2090: 2089: 2082: 2071: 2058: 2043: 2042: 2033: 2022: 2021: 2011: 2000: 1977: 1972: 1961: 1960: 1942: 1941: 1932: 1921: 1920: 1910: 1899: 1898: 1885: 1870: 1869: 1860: 1849: 1848: 1835: 1824: 1804: 1792: 1781: 1780: 1778: 1763: 1752: 1751: 1741: 1731: 1713: 1712: 1703: 1692: 1691: 1678: 1667: 1654: 1644: 1633: 1632: 1622: 1611: 1610: 1596: 1587: 1574: 1563: 1546: 1532: 1523: 1510: 1499: 1491: 1489: 1455: 1444: 1443: 1440: 1419: 1408: 1407: 1404: 1383: 1372: 1371: 1368: 1347: 1336: 1335: 1332: 1302: 1297: 1286: 1285: 1278: 1267: 1254: 1239: 1238: 1229: 1218: 1217: 1207: 1196: 1179: 1164: 1163: 1154: 1141: 1130: 1113: 1103: 1092: 1091: 1081: 1068: 1057: 1044: 1029: 1028: 1019: 1008: 1007: 997: 986: 969: 954: 953: 944: 931: 920: 903: 867: 857: 842: 841: 827: 817: 806: 805: 791: 790: 771: 761: 750: 749: 733: 731: 696: 682: 668: 666: 634: 619: 618: 609: 596: 585: 567: 565: 524: 509: 487: 474: 465: 444: 438: 415: 399: 389: 367: 357: 344: 331: 325: 252: 246: 236: 227: 211: 200: 194: 169: 167: 146: 140: 115: 106: 100: 37:For broader coverage of this topic, see 4245: 650:can be partitioned as follows into the 560:observations, the total sum of squares 4305:(Third ed.). New York: Springer. 128:{\displaystyle y_{i}-{\overline {y}}} 7: 55:is a concept that permeates much of 3054: 3051: 3048: 3040: 3037: 3034: 703: 700: 697: 689: 686: 683: 675: 672: 669: 574: 571: 568: 25: 4347:. University of Minnesota Press. 4282:Design of Comparative Experiments 79:). When scaled for the number of 4123: 4071: 3991: 3963: 3953: 3833: 3690: 3578: 3553: 3477: 3452: 3408: 3398: 3380: 3355: 3312: 3297: 3287: 3267: 3242: 3222: 3165: 868: 818: 762: 866: 182:{\displaystyle {\overline {y}}} 4327:. English Universities Press. 4285:. Cambridge University Press. 4109: 4082: 4053: 4030: 4013: 4001: 3928: 3820: 3803: 3785: 3759: 3683: 3668: 3642: 3571: 3533: 3504: 3470: 3373: 3280: 3235: 3152: 3110: 3013: 2973: 2966: 2945: 2935: 2867: 2823: 2767: 2723: 2686: 2651: 2626: 2616: 2593: 2553: 2546: 2525: 2515: 2481: 2443: 2402: 2380: 2370: 2358: 2307: 2267: 2260: 2239: 2229: 2195: 2189: 2168: 2158: 2146: 2095: 2055: 2048: 2027: 2017: 1983: 1966: 1953: 1947: 1926: 1916: 1904: 1882: 1875: 1854: 1844: 1841: 1801: 1786: 1769: 1757: 1734: 1724: 1718: 1697: 1687: 1684: 1651: 1638: 1616: 1580: 1543: 1516: 1464:{\displaystyle {\hat {b}}_{p}} 1449: 1428:{\displaystyle {\hat {b}}_{1}} 1413: 1392:{\displaystyle {\hat {b}}_{0}} 1377: 1356:{\displaystyle {\hat {y}}_{i}} 1341: 1291: 1251: 1244: 1223: 1213: 1176: 1169: 1147: 1110: 1097: 1074: 1041: 1034: 1013: 1003: 966: 959: 937: 900: 875: 853: 847: 838: 823: 811: 796: 786: 767: 755: 739: 631: 624: 602: 518: 467: 287:is the number of data points. 1: 4364:Whittle, P. (20 April 2000). 275:In many cases, the number of 4301:Christensen, Ronald (2002). 2646: 2476: 1601: 1537: 283: − 1, where 241: 174: 120: 53:partition of sums of squares 4366:Probability Via Expectation 4258:Corporate Finance Institute 162:is the ith data point, and 63:. More properly, it is the 18:Sum of squares (statistics) 4414: 4368:(4th ed.). Springer. 4151:lack-of-fit sum of squares 453:{\displaystyle \beta _{0}} 43: 36: 29: 4325:Prediction and Regulation 652:explained sum of squares 65:partitioning of sums of 656:residual sum of squares 319:linear regression model 4135: 3902: 3179: 3132: 3102: 3066: 3005: 2934: 2859: 2759: 2678: 2585: 2514: 2350: 2299: 2228: 2138: 2087: 2016: 1840: 1683: 1579: 1515: 1465: 1429: 1393: 1357: 1319: 1283: 1212: 1146: 1073: 1002: 936: 714: 644: 601: 550: 454: 425: 304:inferential statistics 262: 216: 183: 156: 129: 61:descriptive statistics 57:inferential statistics 46:Variance decomposition 4209:Orthogonal projection 4197:Orthogonal complement 4182:Expected mean squares 4136: 3903: 3180: 3133: 3082: 3067: 2985: 2914: 2839: 2739: 2658: 2565: 2494: 2330: 2279: 2208: 2118: 2067: 1996: 1820: 1663: 1559: 1495: 1466: 1430: 1394: 1358: 1320: 1263: 1192: 1126: 1053: 982: 916: 715: 645: 581: 551: 455: 426: 263: 196: 184: 157: 155:{\displaystyle y_{i}} 130: 4393:Analysis of variance 4343:Whittle, P. (1983). 4203:Orthomodular lattice 4145:Further partitioning 3918: 3195: 3142: 3079: 1488: 1439: 1403: 1367: 1331: 730: 665: 564: 464: 460:, based on a sample 437: 432:including a constant 324: 300:total sum of squares 193: 166: 139: 99: 39:Analysis of variance 4216:Pythagorean theorem 4163:Inner-product space 3029: 2609: 2323: 2111: 1982: 1307: 83:, it estimates the 4234:Squared deviations 4229:Mean squared error 4131: 3898: 3896: 3848: 3841: 3175: 3128: 3062: 3060: 3006: 2903: 2896: 2803: 2796: 2709: 2702: 2586: 2300: 2088: 1959: 1799: 1776: 1461: 1425: 1389: 1353: 1315: 1313: 1284: 710: 640: 546: 450: 421: 293:Standard deviation 277:degrees of freedom 258: 179: 152: 125: 81:degrees of freedom 67:squared deviations 4292:978-0-521-68357-9 4192:Orthonormal basis 3969: 3931: 3888: 3872: 3823: 3811: 3809: 3806: 3788: 3762: 3738: 3722: 3686: 3671: 3645: 3626: 3610: 3574: 3559: 3536: 3507: 3473: 3458: 3414: 3376: 3361: 3318: 3303: 3283: 3238: 3212: 3155: 3113: 3016: 2969: 2948: 2870: 2837: 2835: 2826: 2770: 2737: 2735: 2726: 2689: 2656: 2654: 2649: 2629: 2596: 2549: 2528: 2479: 2446: 2405: 2383: 2361: 2310: 2263: 2242: 2192: 2171: 2149: 2098: 2051: 2030: 1969: 1950: 1929: 1907: 1878: 1857: 1789: 1760: 1732: 1730: 1721: 1700: 1641: 1619: 1604: 1540: 1471:as the estimated 1452: 1416: 1380: 1344: 1294: 1247: 1226: 1172: 1100: 1037: 1016: 962: 850: 814: 799: 758: 627: 244: 177: 123: 16:(Redirected from 4405: 4379: 4358: 4341:Republished as: 4338: 4316: 4296: 4268: 4267: 4265: 4264: 4250: 4140: 4138: 4137: 4132: 4127: 4126: 4117: 4116: 4107: 4106: 4094: 4093: 4081: 4080: 4075: 4074: 4061: 4060: 4051: 4050: 4041: 4040: 4025: 4024: 4000: 3999: 3994: 3982: 3981: 3976: 3972: 3971: 3970: 3962: 3956: 3939: 3938: 3933: 3932: 3924: 3907: 3905: 3904: 3899: 3897: 3890: 3889: 3886: 3874: 3873: 3870: 3855: 3847: 3842: 3837: 3836: 3831: 3830: 3825: 3824: 3816: 3808: 3807: 3799: 3790: 3789: 3781: 3778: 3774: 3770: 3769: 3764: 3763: 3755: 3740: 3739: 3736: 3724: 3723: 3720: 3705: 3698: 3694: 3693: 3688: 3687: 3679: 3673: 3672: 3664: 3653: 3652: 3647: 3646: 3638: 3628: 3627: 3624: 3612: 3611: 3608: 3593: 3586: 3582: 3581: 3576: 3575: 3567: 3561: 3560: 3552: 3544: 3543: 3538: 3537: 3529: 3519: 3518: 3509: 3508: 3500: 3491: 3490: 3481: 3480: 3475: 3474: 3466: 3460: 3459: 3451: 3438: 3431: 3430: 3421: 3417: 3416: 3415: 3407: 3401: 3388: 3384: 3383: 3378: 3377: 3369: 3363: 3362: 3354: 3337: 3330: 3329: 3320: 3319: 3311: 3305: 3304: 3296: 3290: 3285: 3284: 3276: 3270: 3255: 3254: 3245: 3240: 3239: 3231: 3225: 3214: 3213: 3210: 3184: 3182: 3181: 3176: 3168: 3163: 3162: 3157: 3156: 3148: 3137: 3135: 3134: 3129: 3121: 3120: 3115: 3114: 3106: 3101: 3096: 3071: 3069: 3068: 3063: 3061: 3057: 3043: 3028: 3023: 3018: 3017: 3009: 3004: 2999: 2981: 2980: 2971: 2970: 2962: 2956: 2955: 2950: 2949: 2941: 2933: 2928: 2907: 2902: 2897: 2892: 2891: 2890: 2878: 2877: 2872: 2871: 2863: 2858: 2853: 2834: 2833: 2828: 2827: 2819: 2802: 2797: 2792: 2791: 2790: 2778: 2777: 2772: 2771: 2763: 2758: 2753: 2734: 2733: 2728: 2727: 2719: 2708: 2703: 2698: 2697: 2696: 2691: 2690: 2682: 2677: 2672: 2650: 2642: 2637: 2636: 2631: 2630: 2622: 2608: 2603: 2598: 2597: 2589: 2584: 2579: 2561: 2560: 2551: 2550: 2542: 2536: 2535: 2530: 2529: 2521: 2513: 2508: 2487: 2480: 2472: 2467: 2466: 2454: 2453: 2448: 2447: 2439: 2426: 2425: 2413: 2412: 2407: 2406: 2398: 2391: 2390: 2385: 2384: 2376: 2369: 2368: 2363: 2362: 2354: 2349: 2344: 2322: 2317: 2312: 2311: 2303: 2298: 2293: 2275: 2274: 2265: 2264: 2256: 2250: 2249: 2244: 2243: 2235: 2227: 2222: 2201: 2194: 2193: 2185: 2179: 2178: 2173: 2172: 2164: 2157: 2156: 2151: 2150: 2142: 2137: 2132: 2110: 2105: 2100: 2099: 2091: 2086: 2081: 2063: 2062: 2053: 2052: 2044: 2038: 2037: 2032: 2031: 2023: 2015: 2010: 1989: 1981: 1976: 1971: 1970: 1962: 1952: 1951: 1943: 1937: 1936: 1931: 1930: 1922: 1915: 1914: 1909: 1908: 1900: 1890: 1889: 1880: 1879: 1871: 1865: 1864: 1859: 1858: 1850: 1839: 1834: 1813: 1809: 1808: 1798: 1797: 1796: 1791: 1790: 1782: 1777: 1772: 1768: 1767: 1762: 1761: 1753: 1746: 1745: 1723: 1722: 1714: 1708: 1707: 1702: 1701: 1693: 1682: 1677: 1659: 1658: 1649: 1648: 1643: 1642: 1634: 1627: 1626: 1621: 1620: 1612: 1605: 1597: 1592: 1591: 1578: 1573: 1551: 1550: 1541: 1533: 1528: 1527: 1514: 1509: 1470: 1468: 1467: 1462: 1460: 1459: 1454: 1453: 1445: 1434: 1432: 1431: 1426: 1424: 1423: 1418: 1417: 1409: 1398: 1396: 1395: 1390: 1388: 1387: 1382: 1381: 1373: 1362: 1360: 1359: 1354: 1352: 1351: 1346: 1345: 1337: 1324: 1322: 1321: 1316: 1314: 1306: 1301: 1296: 1295: 1287: 1282: 1277: 1259: 1258: 1249: 1248: 1240: 1234: 1233: 1228: 1227: 1219: 1211: 1206: 1184: 1183: 1174: 1173: 1165: 1159: 1158: 1145: 1140: 1118: 1117: 1108: 1107: 1102: 1101: 1093: 1086: 1085: 1072: 1067: 1049: 1048: 1039: 1038: 1030: 1024: 1023: 1018: 1017: 1009: 1001: 996: 974: 973: 964: 963: 955: 949: 948: 935: 930: 908: 907: 871: 862: 861: 856: 852: 851: 843: 832: 831: 826: 822: 821: 816: 815: 807: 801: 800: 792: 776: 775: 770: 766: 765: 760: 759: 751: 719: 717: 716: 711: 706: 692: 678: 649: 647: 646: 641: 639: 638: 629: 628: 620: 614: 613: 600: 595: 577: 555: 553: 552: 547: 517: 516: 495: 494: 479: 478: 459: 457: 456: 451: 449: 448: 430: 428: 427: 422: 420: 419: 407: 406: 394: 393: 375: 374: 362: 361: 349: 348: 336: 335: 267: 265: 264: 259: 257: 256: 251: 247: 245: 237: 232: 231: 215: 210: 188: 186: 185: 180: 178: 170: 161: 159: 158: 153: 151: 150: 134: 132: 131: 126: 124: 116: 111: 110: 21: 4413: 4412: 4408: 4407: 4406: 4404: 4403: 4402: 4383: 4382: 4376: 4363: 4355: 4342: 4335: 4319: 4313: 4300: 4293: 4275: 4272: 4271: 4262: 4260: 4252: 4251: 4247: 4242: 4173:Euclidean space 4159: 4147: 4108: 4098: 4085: 4068: 4052: 4042: 4029: 4016: 3989: 3951: 3947: 3946: 3921: 3916: 3915: 3895: 3894: 3881: 3865: 3853: 3852: 3813: 3812: 3752: 3751: 3747: 3731: 3715: 3703: 3702: 3658: 3654: 3635: 3619: 3603: 3591: 3590: 3549: 3545: 3526: 3510: 3482: 3436: 3435: 3422: 3396: 3392: 3351: 3347: 3335: 3334: 3321: 3256: 3246: 3205: 3193: 3192: 3145: 3140: 3139: 3103: 3077: 3076: 3059: 3058: 2972: 2938: 2905: 2904: 2879: 2860: 2838: 2816: 2779: 2760: 2738: 2716: 2679: 2657: 2619: 2552: 2518: 2485: 2484: 2455: 2436: 2414: 2395: 2373: 2351: 2266: 2232: 2199: 2198: 2161: 2139: 2054: 2020: 1987: 1986: 1919: 1897: 1881: 1847: 1811: 1810: 1800: 1779: 1750: 1737: 1733: 1690: 1650: 1631: 1609: 1583: 1552: 1542: 1519: 1486: 1485: 1482: 1442: 1437: 1436: 1406: 1401: 1400: 1370: 1365: 1364: 1334: 1329: 1328: 1312: 1311: 1250: 1216: 1185: 1175: 1150: 1123: 1122: 1109: 1090: 1077: 1040: 1006: 975: 965: 940: 913: 912: 899: 837: 836: 789: 785: 784: 777: 742: 738: 737: 728: 727: 663: 662: 630: 605: 562: 561: 505: 483: 470: 462: 461: 440: 435: 434: 411: 395: 385: 363: 353: 340: 327: 322: 321: 312: 223: 222: 218: 217: 191: 190: 164: 163: 142: 137: 136: 102: 97: 96: 93: 49: 42: 35: 28: 23: 22: 15: 12: 11: 5: 4411: 4409: 4401: 4400: 4395: 4385: 4384: 4381: 4380: 4374: 4361: 4360: 4359: 4353: 4333: 4321:Whittle, Peter 4317: 4311: 4298: 4291: 4270: 4269: 4244: 4243: 4241: 4238: 4237: 4236: 4231: 4226: 4221: 4220: 4219: 4213: 4212: 4211: 4206: 4200: 4189: 4179: 4178: 4177: 4176: 4175: 4158: 4155: 4146: 4143: 4142: 4141: 4130: 4125: 4120: 4115: 4111: 4105: 4101: 4097: 4092: 4088: 4084: 4079: 4073: 4067: 4064: 4059: 4055: 4049: 4045: 4039: 4036: 4032: 4028: 4023: 4019: 4015: 4012: 4009: 4006: 4003: 3998: 3993: 3988: 3985: 3980: 3975: 3968: 3965: 3959: 3955: 3950: 3945: 3942: 3937: 3930: 3927: 3909: 3908: 3893: 3884: 3880: 3877: 3868: 3864: 3861: 3858: 3856: 3854: 3851: 3846: 3840: 3835: 3829: 3822: 3819: 3805: 3802: 3796: 3793: 3787: 3784: 3777: 3773: 3768: 3761: 3758: 3750: 3746: 3743: 3734: 3730: 3727: 3718: 3714: 3711: 3708: 3706: 3704: 3701: 3697: 3692: 3685: 3682: 3676: 3670: 3667: 3661: 3657: 3651: 3644: 3641: 3634: 3631: 3622: 3618: 3615: 3606: 3602: 3599: 3596: 3594: 3592: 3589: 3585: 3580: 3573: 3570: 3564: 3558: 3555: 3548: 3542: 3535: 3532: 3525: 3522: 3517: 3513: 3506: 3503: 3497: 3494: 3489: 3485: 3479: 3472: 3469: 3463: 3457: 3454: 3447: 3444: 3441: 3439: 3437: 3434: 3429: 3425: 3420: 3413: 3410: 3404: 3400: 3395: 3391: 3387: 3382: 3375: 3372: 3366: 3360: 3357: 3350: 3346: 3343: 3340: 3338: 3336: 3333: 3328: 3324: 3317: 3314: 3308: 3302: 3299: 3293: 3289: 3282: 3279: 3273: 3269: 3265: 3262: 3259: 3257: 3253: 3249: 3244: 3237: 3234: 3228: 3224: 3220: 3217: 3208: 3204: 3201: 3200: 3174: 3171: 3167: 3161: 3154: 3151: 3127: 3124: 3119: 3112: 3109: 3100: 3095: 3092: 3089: 3085: 3073: 3072: 3056: 3053: 3050: 3046: 3042: 3039: 3036: 3032: 3027: 3022: 3015: 3012: 3003: 2998: 2995: 2992: 2988: 2984: 2979: 2975: 2968: 2965: 2959: 2954: 2947: 2944: 2937: 2932: 2927: 2924: 2921: 2917: 2913: 2910: 2908: 2906: 2901: 2895: 2889: 2886: 2882: 2876: 2869: 2866: 2857: 2852: 2849: 2846: 2842: 2832: 2825: 2822: 2815: 2812: 2809: 2806: 2801: 2795: 2789: 2786: 2782: 2776: 2769: 2766: 2757: 2752: 2749: 2746: 2742: 2732: 2725: 2722: 2715: 2712: 2707: 2701: 2695: 2688: 2685: 2676: 2671: 2668: 2665: 2661: 2653: 2648: 2645: 2640: 2635: 2628: 2625: 2618: 2615: 2612: 2607: 2602: 2595: 2592: 2583: 2578: 2575: 2572: 2568: 2564: 2559: 2555: 2548: 2545: 2539: 2534: 2527: 2524: 2517: 2512: 2507: 2504: 2501: 2497: 2493: 2490: 2488: 2486: 2483: 2478: 2475: 2470: 2465: 2462: 2458: 2452: 2445: 2442: 2435: 2432: 2429: 2424: 2421: 2417: 2411: 2404: 2401: 2394: 2389: 2382: 2379: 2372: 2367: 2360: 2357: 2348: 2343: 2340: 2337: 2333: 2329: 2326: 2321: 2316: 2309: 2306: 2297: 2292: 2289: 2286: 2282: 2278: 2273: 2269: 2262: 2259: 2253: 2248: 2241: 2238: 2231: 2226: 2221: 2218: 2215: 2211: 2207: 2204: 2202: 2200: 2197: 2191: 2188: 2182: 2177: 2170: 2167: 2160: 2155: 2148: 2145: 2136: 2131: 2128: 2125: 2121: 2117: 2114: 2109: 2104: 2097: 2094: 2085: 2080: 2077: 2074: 2070: 2066: 2061: 2057: 2050: 2047: 2041: 2036: 2029: 2026: 2019: 2014: 2009: 2006: 2003: 1999: 1995: 1992: 1990: 1988: 1985: 1980: 1975: 1968: 1965: 1958: 1955: 1949: 1946: 1940: 1935: 1928: 1925: 1918: 1913: 1906: 1903: 1896: 1893: 1888: 1884: 1877: 1874: 1868: 1863: 1856: 1853: 1846: 1843: 1838: 1833: 1830: 1827: 1823: 1819: 1816: 1814: 1812: 1807: 1803: 1795: 1788: 1785: 1775: 1771: 1766: 1759: 1756: 1749: 1744: 1740: 1736: 1729: 1726: 1720: 1717: 1711: 1706: 1699: 1696: 1689: 1686: 1681: 1676: 1673: 1670: 1666: 1662: 1657: 1653: 1647: 1640: 1637: 1630: 1625: 1618: 1615: 1608: 1603: 1600: 1595: 1590: 1586: 1582: 1577: 1572: 1569: 1566: 1562: 1558: 1555: 1553: 1549: 1545: 1539: 1536: 1531: 1526: 1522: 1518: 1513: 1508: 1505: 1502: 1498: 1494: 1493: 1481: 1478: 1477: 1476: 1458: 1451: 1448: 1422: 1415: 1412: 1386: 1379: 1376: 1350: 1343: 1340: 1325: 1310: 1305: 1300: 1293: 1290: 1281: 1276: 1273: 1270: 1266: 1262: 1257: 1253: 1246: 1243: 1237: 1232: 1225: 1222: 1215: 1210: 1205: 1202: 1199: 1195: 1191: 1188: 1186: 1182: 1178: 1171: 1168: 1162: 1157: 1153: 1149: 1144: 1139: 1136: 1133: 1129: 1125: 1124: 1121: 1116: 1112: 1106: 1099: 1096: 1089: 1084: 1080: 1076: 1071: 1066: 1063: 1060: 1056: 1052: 1047: 1043: 1036: 1033: 1027: 1022: 1015: 1012: 1005: 1000: 995: 992: 989: 985: 981: 978: 976: 972: 968: 961: 958: 952: 947: 943: 939: 934: 929: 926: 923: 919: 915: 914: 911: 906: 902: 898: 895: 892: 889: 886: 883: 880: 877: 874: 870: 865: 860: 855: 849: 846: 840: 835: 830: 825: 820: 813: 810: 804: 798: 795: 788: 783: 780: 778: 774: 769: 764: 757: 754: 748: 745: 741: 736: 735: 721: 720: 709: 705: 702: 699: 695: 691: 688: 685: 681: 677: 674: 671: 654:(ESS) and the 637: 633: 626: 623: 617: 612: 608: 604: 599: 594: 591: 588: 584: 580: 576: 573: 570: 545: 542: 539: 536: 533: 530: 527: 523: 520: 515: 512: 508: 504: 501: 498: 493: 490: 486: 482: 477: 473: 469: 447: 443: 418: 414: 410: 405: 402: 398: 392: 388: 384: 381: 378: 373: 370: 366: 360: 356: 352: 347: 343: 339: 334: 330: 311: 308: 255: 250: 243: 240: 235: 230: 226: 221: 214: 209: 206: 203: 199: 176: 173: 149: 145: 122: 119: 114: 109: 105: 92: 89: 32:Sum of squares 26: 24: 14: 13: 10: 9: 6: 4: 3: 2: 4410: 4399: 4398:Least squares 4396: 4394: 4391: 4390: 4388: 4377: 4375:0-387-98955-2 4371: 4367: 4362: 4356: 4354:0-8166-1148-3 4350: 4346: 4340: 4339: 4336: 4334:0-8166-1147-5 4330: 4326: 4322: 4318: 4314: 4312:0-387-95361-2 4308: 4304: 4299: 4294: 4288: 4284: 4283: 4278: 4277:Bailey, R. A. 4274: 4273: 4259: 4255: 4249: 4246: 4239: 4235: 4232: 4230: 4227: 4225: 4224:Least squares 4222: 4217: 4214: 4210: 4207: 4204: 4201: 4198: 4195: 4194: 4193: 4190: 4188: 4187:Orthogonality 4185: 4184: 4183: 4180: 4174: 4171: 4170: 4169: 4168:Hilbert space 4166: 4165: 4164: 4161: 4160: 4156: 4154: 4152: 4144: 4128: 4118: 4113: 4103: 4099: 4095: 4090: 4086: 4077: 4065: 4062: 4057: 4047: 4043: 4037: 4034: 4026: 4021: 4017: 4010: 4007: 4004: 3996: 3986: 3983: 3978: 3973: 3957: 3948: 3943: 3940: 3935: 3925: 3914: 3913: 3912: 3891: 3882: 3878: 3875: 3866: 3862: 3859: 3857: 3849: 3844: 3838: 3827: 3817: 3800: 3794: 3791: 3782: 3775: 3771: 3766: 3756: 3748: 3744: 3741: 3732: 3728: 3725: 3716: 3712: 3709: 3707: 3699: 3695: 3680: 3674: 3665: 3659: 3655: 3649: 3639: 3632: 3629: 3620: 3616: 3613: 3604: 3600: 3597: 3595: 3587: 3583: 3568: 3562: 3546: 3540: 3530: 3523: 3520: 3515: 3501: 3492: 3487: 3467: 3461: 3442: 3440: 3432: 3427: 3418: 3402: 3393: 3389: 3385: 3370: 3364: 3348: 3341: 3339: 3331: 3326: 3306: 3291: 3277: 3271: 3260: 3258: 3251: 3232: 3226: 3215: 3206: 3202: 3191: 3190: 3189: 3186: 3172: 3169: 3159: 3149: 3125: 3122: 3117: 3107: 3098: 3093: 3090: 3087: 3083: 3044: 3030: 3025: 3020: 3010: 3001: 2996: 2993: 2990: 2986: 2982: 2977: 2963: 2957: 2952: 2942: 2930: 2925: 2922: 2919: 2915: 2911: 2909: 2899: 2893: 2887: 2884: 2880: 2874: 2864: 2855: 2850: 2847: 2844: 2840: 2830: 2820: 2813: 2810: 2807: 2804: 2799: 2793: 2787: 2784: 2780: 2774: 2764: 2755: 2750: 2747: 2744: 2740: 2730: 2720: 2713: 2710: 2705: 2699: 2693: 2683: 2674: 2669: 2666: 2663: 2659: 2643: 2638: 2633: 2623: 2613: 2610: 2605: 2600: 2590: 2581: 2576: 2573: 2570: 2566: 2562: 2557: 2543: 2537: 2532: 2522: 2510: 2505: 2502: 2499: 2495: 2491: 2489: 2473: 2468: 2463: 2460: 2456: 2450: 2440: 2433: 2430: 2427: 2422: 2419: 2415: 2409: 2399: 2392: 2387: 2377: 2365: 2355: 2346: 2341: 2338: 2335: 2331: 2327: 2324: 2319: 2314: 2304: 2295: 2290: 2287: 2284: 2280: 2276: 2271: 2257: 2251: 2246: 2236: 2224: 2219: 2216: 2213: 2209: 2205: 2203: 2186: 2180: 2175: 2165: 2153: 2143: 2134: 2129: 2126: 2123: 2119: 2115: 2112: 2107: 2102: 2092: 2083: 2078: 2075: 2072: 2068: 2064: 2059: 2045: 2039: 2034: 2024: 2012: 2007: 2004: 2001: 1997: 1993: 1991: 1978: 1973: 1963: 1956: 1944: 1938: 1933: 1923: 1911: 1901: 1894: 1891: 1886: 1872: 1866: 1861: 1851: 1836: 1831: 1828: 1825: 1821: 1817: 1815: 1805: 1793: 1783: 1773: 1764: 1754: 1747: 1742: 1738: 1727: 1715: 1709: 1704: 1694: 1679: 1674: 1671: 1668: 1664: 1660: 1655: 1645: 1635: 1628: 1623: 1613: 1606: 1598: 1593: 1588: 1584: 1575: 1570: 1567: 1564: 1560: 1556: 1554: 1547: 1534: 1529: 1524: 1520: 1511: 1506: 1503: 1500: 1496: 1484: 1483: 1479: 1474: 1456: 1446: 1420: 1410: 1384: 1374: 1348: 1338: 1326: 1308: 1303: 1298: 1288: 1279: 1274: 1271: 1268: 1264: 1260: 1255: 1241: 1235: 1230: 1220: 1208: 1203: 1200: 1197: 1193: 1189: 1187: 1180: 1166: 1160: 1155: 1151: 1142: 1137: 1134: 1131: 1127: 1119: 1114: 1104: 1094: 1087: 1082: 1078: 1069: 1064: 1061: 1058: 1054: 1050: 1045: 1031: 1025: 1020: 1010: 998: 993: 990: 987: 983: 979: 977: 970: 956: 950: 945: 941: 932: 927: 924: 921: 917: 909: 904: 896: 893: 890: 887: 884: 881: 878: 872: 863: 858: 844: 833: 828: 808: 802: 793: 781: 779: 772: 752: 746: 743: 726: 725: 724: 707: 693: 679: 661: 660: 659: 657: 653: 635: 621: 615: 610: 606: 597: 592: 589: 586: 582: 578: 559: 543: 540: 537: 534: 531: 528: 525: 521: 513: 510: 506: 502: 499: 496: 491: 488: 484: 480: 475: 471: 445: 441: 433: 416: 412: 408: 403: 400: 396: 390: 386: 382: 379: 376: 371: 368: 364: 358: 354: 350: 345: 341: 337: 332: 328: 320: 316: 309: 307: 305: 301: 296: 294: 288: 286: 282: 278: 273: 269: 253: 248: 238: 233: 228: 224: 219: 212: 207: 204: 201: 197: 171: 147: 143: 117: 112: 107: 103: 90: 88: 86: 82: 78: 75:(also called 74: 70: 68: 62: 58: 54: 47: 40: 33: 19: 4365: 4344: 4324: 4302: 4281: 4261:. Retrieved 4257: 4248: 4148: 3910: 3187: 3074: 1473:coefficients 722: 557: 431: 314: 313: 297: 289: 284: 280: 274: 270: 94: 64: 52: 50: 556:containing 77:variability 4387:Categories 4263:2020-10-16 4240:References 3871:regression 3721:regression 3609:regression 91:Background 73:dispersion 4096:− 4035:− 4008:− 3967:^ 3958:− 3929:^ 3926:ε 3839:⏟ 3821:^ 3818:ε 3804:¯ 3792:− 3786:^ 3783:β 3760:^ 3757:ε 3684:¯ 3675:− 3669:^ 3666:β 3643:^ 3640:ε 3572:¯ 3563:− 3557:^ 3534:^ 3531:ε 3512:‖ 3505:^ 3502:ε 3496:‖ 3484:‖ 3471:¯ 3462:− 3456:^ 3446:‖ 3424:‖ 3412:^ 3403:− 3374:¯ 3365:− 3359:^ 3345:‖ 3323:‖ 3316:^ 3307:− 3301:^ 3281:¯ 3272:− 3264:‖ 3248:‖ 3236:¯ 3227:− 3219:‖ 3153:^ 3150:ε 3111:^ 3108:ε 3084:∑ 3014:^ 3011:ε 2987:∑ 2967:¯ 2958:− 2946:^ 2916:∑ 2894:⏟ 2868:^ 2865:ε 2841:∑ 2824:^ 2821:β 2808:⋯ 2794:⏟ 2768:^ 2765:ε 2741:∑ 2724:^ 2721:β 2700:⏟ 2687:^ 2684:ε 2660:∑ 2647:¯ 2639:− 2627:^ 2624:β 2594:^ 2591:ε 2567:∑ 2547:¯ 2538:− 2526:^ 2496:∑ 2477:¯ 2469:− 2444:^ 2441:β 2431:⋯ 2403:^ 2400:β 2381:^ 2378:β 2359:^ 2356:ε 2332:∑ 2308:^ 2305:ε 2281:∑ 2261:¯ 2252:− 2240:^ 2210:∑ 2190:¯ 2181:− 2169:^ 2147:^ 2144:ε 2120:∑ 2096:^ 2093:ε 2069:∑ 2049:¯ 2040:− 2028:^ 1998:∑ 1967:^ 1964:ε 1948:¯ 1939:− 1927:^ 1905:^ 1902:ε 1876:¯ 1867:− 1855:^ 1822:∑ 1787:^ 1784:ε 1774:⏟ 1758:^ 1748:− 1719:¯ 1710:− 1698:^ 1665:∑ 1639:^ 1629:− 1617:^ 1602:¯ 1594:− 1561:∑ 1538:¯ 1530:− 1497:∑ 1450:^ 1414:^ 1378:^ 1342:^ 1292:^ 1289:ε 1265:∑ 1245:¯ 1236:− 1224:^ 1194:∑ 1170:¯ 1161:− 1128:∑ 1098:^ 1088:− 1055:∑ 1035:¯ 1026:− 1014:^ 984:∑ 960:¯ 951:− 918:∑ 891:… 848:^ 845:ε 812:¯ 803:− 797:^ 756:¯ 747:− 625:¯ 616:− 583:∑ 538:… 500:… 442:β 413:ε 387:β 380:⋯ 355:β 342:β 242:¯ 234:− 198:∑ 175:¯ 121:¯ 113:− 69:or errors 4323:(1963). 4279:(2008). 4157:See also 854:‖ 839:‖ 824:‖ 787:‖ 768:‖ 740:‖ 317:Given a 315:Theorem. 135:, where 85:variance 3138:, i.e. 1435:, ..., 658:(RSS): 4372:  4351:  4331:  4309:  4289:  1327:where 3887:error 3737:error 3625:error 3211:total 1480:Proof 4370:ISBN 4349:ISBN 4329:ISBN 4307:ISBN 4287:ISBN 59:and 51:The 4389:: 4256:. 3185:. 1399:, 306:. 4378:. 4357:. 4337:. 4315:. 4295:. 4266:. 4129:. 4124:0 4119:= 4114:T 4110:) 4104:T 4100:X 4091:T 4087:X 4083:( 4078:T 4072:y 4066:= 4063:X 4058:T 4054:) 4048:T 4044:X 4038:1 4031:) 4027:X 4022:T 4018:X 4014:( 4011:X 4005:I 4002:( 3997:T 3992:y 3987:= 3984:X 3979:T 3974:) 3964:y 3954:y 3949:( 3944:= 3941:X 3936:T 3892:. 3883:S 3879:S 3876:+ 3867:S 3863:S 3860:= 3850:, 3845:0 3834:1 3828:T 3801:y 3795:2 3776:) 3772:X 3767:T 3749:( 3745:2 3742:+ 3733:S 3729:S 3726:+ 3717:S 3713:S 3710:= 3700:, 3696:) 3691:1 3681:y 3660:X 3656:( 3650:T 3633:2 3630:+ 3621:S 3617:S 3614:+ 3605:S 3601:S 3598:= 3588:, 3584:) 3579:1 3569:y 3554:y 3547:( 3541:T 3524:2 3521:+ 3516:2 3493:+ 3488:2 3478:1 3468:y 3453:y 3443:= 3433:, 3428:2 3419:) 3409:y 3399:y 3394:( 3390:+ 3386:) 3381:1 3371:y 3356:y 3349:( 3342:= 3332:, 3327:2 3313:y 3298:y 3292:+ 3288:1 3278:y 3268:y 3261:= 3252:2 3243:1 3233:y 3223:y 3216:= 3207:S 3203:S 3173:0 3170:= 3166:1 3160:T 3126:0 3123:= 3118:i 3099:n 3094:1 3091:= 3088:i 3055:S 3052:S 3049:R 3045:+ 3041:S 3038:S 3035:E 3031:= 3026:2 3021:i 3002:n 2997:1 2994:= 2991:i 2983:+ 2978:2 2974:) 2964:y 2953:i 2943:y 2936:( 2931:n 2926:1 2923:= 2920:i 2912:= 2900:0 2888:p 2885:i 2881:x 2875:i 2856:n 2851:1 2848:= 2845:i 2831:p 2814:2 2811:+ 2805:+ 2800:0 2788:1 2785:i 2781:x 2775:i 2756:n 2751:1 2748:= 2745:i 2731:1 2714:2 2711:+ 2706:0 2694:i 2675:n 2670:1 2667:= 2664:i 2652:) 2644:y 2634:0 2617:( 2614:2 2611:+ 2606:2 2601:i 2582:n 2577:1 2574:= 2571:i 2563:+ 2558:2 2554:) 2544:y 2533:i 2523:y 2516:( 2511:n 2506:1 2503:= 2500:i 2492:= 2482:) 2474:y 2464:p 2461:i 2457:x 2451:p 2434:+ 2428:+ 2423:1 2420:i 2416:x 2410:1 2393:+ 2388:0 2371:( 2366:i 2347:n 2342:1 2339:= 2336:i 2328:2 2325:+ 2320:2 2315:i 2296:n 2291:1 2288:= 2285:i 2277:+ 2272:2 2268:) 2258:y 2247:i 2237:y 2230:( 2225:n 2220:1 2217:= 2214:i 2206:= 2196:) 2187:y 2176:i 2166:y 2159:( 2154:i 2135:n 2130:1 2127:= 2124:i 2116:2 2113:+ 2108:2 2103:i 2084:n 2079:1 2076:= 2073:i 2065:+ 2060:2 2056:) 2046:y 2035:i 2025:y 2018:( 2013:n 2008:1 2005:= 2002:i 1994:= 1984:) 1979:2 1974:i 1957:+ 1954:) 1945:y 1934:i 1924:y 1917:( 1912:i 1895:2 1892:+ 1887:2 1883:) 1873:y 1862:i 1852:y 1845:( 1842:( 1837:n 1832:1 1829:= 1826:i 1818:= 1806:2 1802:) 1794:i 1770:) 1765:i 1755:y 1743:i 1739:y 1735:( 1728:+ 1725:) 1716:y 1705:i 1695:y 1688:( 1685:( 1680:n 1675:1 1672:= 1669:i 1661:= 1656:2 1652:) 1646:i 1636:y 1624:i 1614:y 1607:+ 1599:y 1589:i 1585:y 1581:( 1576:n 1571:1 1568:= 1565:i 1557:= 1548:2 1544:) 1535:y 1525:i 1521:y 1517:( 1512:n 1507:1 1504:= 1501:i 1475:. 1457:p 1447:b 1421:1 1411:b 1385:0 1375:b 1349:i 1339:y 1309:, 1304:2 1299:i 1280:n 1275:1 1272:= 1269:i 1261:+ 1256:2 1252:) 1242:y 1231:i 1221:y 1214:( 1209:n 1204:1 1201:= 1198:i 1190:= 1181:2 1177:) 1167:y 1156:i 1152:y 1148:( 1143:n 1138:1 1135:= 1132:i 1120:, 1115:2 1111:) 1105:i 1095:y 1083:i 1079:y 1075:( 1070:n 1065:1 1062:= 1059:i 1051:+ 1046:2 1042:) 1032:y 1021:i 1011:y 1004:( 999:n 994:1 991:= 988:i 980:= 971:2 967:) 957:y 946:i 942:y 938:( 933:n 928:1 925:= 922:i 910:, 905:T 901:) 897:1 894:, 888:, 885:1 882:, 879:1 876:( 873:= 869:1 864:, 859:2 834:+ 829:2 819:1 809:y 794:y 782:= 773:2 763:1 753:y 744:y 708:, 704:S 701:S 698:R 694:+ 690:S 687:S 684:E 680:= 676:S 673:S 670:T 636:2 632:) 622:y 611:i 607:y 603:( 598:n 593:1 590:= 587:i 579:= 575:S 572:S 569:T 558:n 544:n 541:, 535:, 532:1 529:= 526:i 522:, 519:) 514:p 511:i 507:x 503:, 497:, 492:1 489:i 485:x 481:, 476:i 472:y 468:( 446:0 417:i 409:+ 404:p 401:i 397:x 391:p 383:+ 377:+ 372:1 369:i 365:x 359:1 351:+ 346:0 338:= 333:i 329:y 285:n 281:n 254:2 249:) 239:y 229:i 225:y 220:( 213:n 208:1 205:= 202:i 172:y 148:i 144:y 118:y 108:i 104:y 48:. 41:. 34:. 20:)

Index

Sum of squares (statistics)
Sum of squares
Analysis of variance
Variance decomposition
inferential statistics
descriptive statistics
squared deviations
dispersion
variability
degrees of freedom
variance
degrees of freedom
Standard deviation
total sum of squares
inferential statistics
linear regression model
explained sum of squares
residual sum of squares
coefficients
lack-of-fit sum of squares
Inner-product space
Hilbert space
Euclidean space
Expected mean squares
Orthogonality
Orthonormal basis
Orthogonal complement
Orthomodular lattice
Orthogonal projection
Pythagorean theorem

Text is available under the Creative Commons Attribution-ShareAlike License. Additional terms may apply.