Michele Zenga Lezioni di STATISTICA DESCRITTIVA errata corrige al libro di testo 1 2 • pag 228, a metà pagina PN PN xj {2j − N − 1} 1 xj {2j − N − 1} < 1 = R(X) R(Y ) = h · N(N − 1) + M1 (X)N(N − 1) M1 (X)N(N − 1) • pag 228, a fine pagina Dato che y(i) − x(i) tranne per i = j − 1 e i = j, nell’ultima sommatoria i due termini relativi a i = j − 1 e i = j diventano (y(j−1) − x(j−1) )(2(j − 1) − N − 1) + (y(j) − x(j) )(2j − N − 1) = (x(j−1) − h − x(j−1) )(2j − 2 − N − 1) + (x(j) + h − x(j) )(2j − N − 1) = • pag 254, seconda riga Si ha Me = 8, 61 e M1 = 8, 26. • pag 267, 4a Proprietà La concavità di y= 1 √ 1 x−A 2 ) B · e− 2 ( B 2π è rivolta verso il basso per A − B ≤ x ≤ A + B, e verso l’alto per x < A − B e x > A + B. • pag 267, Figura 5.30 A + B e A − B devono essere scambiati di posto nel grafico • pag 318, formula (6.3.30) A2 ′ A2 = ¯ Y • pag 319, formula (6.3.31) (ˆ yi − y¯) = (α ˆ0 + α ˆ 1 xi − [α ˆ0 α ˆ 1 x¯]) = α ˆ 1 (xi − x¯) • pag 369, ultima riga prima di Figura 7.1 si ottiene la cosiddetta spezzata di regressione 3 • pag 386, terz’ultima riga Ricordando che y¯j = Pr 1 n·j i=1 yi · nij • pag 387, ultimo passaggio nello svolgimento di Cov(X, Y ) = 1 N2 Pr Pc i=1 (yi ¯) · n·j j=1 (xj − x − y¯) · ni· • pag 389, penultima riga E’ noto che ¯ z= 1 N P zi = a + b¯ x; • pag 390, prima riga (riprendendo l’equazione dal suo inizio, nella pagina precedente) (wi − w) ¯ = (c + dyi ) − (c + d · y¯) = d (yi − y¯). Consegue che (zi − z¯)(wi − w) ¯ = b · d (xi − x¯)(yi − y¯). In conclusione Cov(Z, W ) = 1 N PN PN = y¯) = b · d Cov(X, Y ) ¯)(wi − w) ¯ = N1 i=1 (zi − z P ¯)(yi − b · d N1 N i=1 (xi − x i=1 b · d (xi − x¯)(yi − y¯) • pag 397, prime righe Si è precisato che si ha concordanza (discordanza) se vi è reciproca influenza fra i due caratteri quantitativi. • pag 399, formula (7.5.19) b·d = ... |b| |d|
© Copyright 2024 ExpyDoc