Теоретичні основи розрахунку ймовірностей і математична статистика - Дослідження попиту годинників з метою оптимізації номенклатури на прикладі фірми "Годинникар"

Нехай ми маємо вибірку значень випадкової величини Х= x1, x2, .... xN, з кількістю спостережень - N. Розіб'ємо весь діапазон можливих значень спостережень випадкової величини на d ділянок. Знайдемо значення випадкової величини на правій межі кожної ділянки як

Dmax(i) =xmin +(xmax - xmin)i/d, (2.21)

Де, i - номер ділянки [1, d]; xmax, xmin - відповідно найбільше та найменше значення випадкової величини у вибірці. Права межа і-ї ділянки водночас є лівою межею і+1 - ї ділянки. Ліва межа для 1-ї ділянки - це xmin. А права межа d-ї ділянки - це xmax. Орієнтовно, кількість цих ділянок може бути визначена як

. (2.22)

Визначимо кількість значень випадкової величини, що попали в ту чи іншу ділянку як КІ. Це число називається "частотою". "Відносною частотою" називається число

Kі= КІ / N. (2.23)

Побудуємо нову таблицю, в якій кожному діапазону значень випадкової величини поставимо у відповідність свою відносну частоту. На підставі цієї таблиці знайдемо емпіричну функцію розподілу за формулою

(2.24)

Оцінки числових характеристик випадкової величини це, як і раніше, моменти, випадкової величини і їхні співвідношення такі самі, але оскільки ми розраховуємо їх не по великим вибіркам, а по відносно невеликим, з кількістю значень випадкової величини N, то ці моменти називаються "оцінками" моментів випадкової величини. Справжні моменти можна визначити тільки провівши визначення тисяч і тисяч значень випадкової величини. Тому знак моменту записується з рискою згори, щоб підкреслити, що це не його точне значення, а тільки оцінка

- Оцінки початкових моментів порядку S

. (2.25)

- Оцінки центральних моментів порядку S

. (2.26)

Як і раніше, математичне сподівання - це початковий момент першого порядку, а дисперсія - центральний момент другого порядку, але останній з такою поправкою

. (2.27)

Мірою відносного відхилення значень випадкової величини відносно оцінки його середнього служить варіація та коефіцієнт варіації var(X) = Dx /mx; Kvar(X) = уx/mx. До звичних вже нам числових характеристик додається ще кореляційний момент (в англомовній літературі цей параметр називається ко-варіація), яка розраховується за вибірками двох різних випадкових величин. Це дозволяє визначити міру взаємного зв'язку цих величин

. (2.28)

Де X, Y - відповідно перша і друга випадкові величини, а mx, my - їхні математичні сподівання. Чим більша кореляційний момент - тим більший зв'язок цих випадкових величин між собою. Для приведення різних кореляційних моментв до одного масштабу, знаходиться коефіцієнт кореляції (в англомовній літературі цей параметр інколи називається кореляція)

, (2.29)

Де - оцінки середніх квадратичних відхилень для випадкових величин X та Y. Завдяки такому перетворенню коефіцієнт кореляції змінюється в діапазоні [0,1]. Коли він дорівнює нулю, це означає, що зв'язку між цими випадковими величинами немає, а коли дорівнює 1, це означає що ці випадкові величини пов'язані між собою лінійним співвідношенням виду x = Ay + B. Тут А та В - константи співвідношення.

Довірчий інтервал це міра числової характеристики випадкової величини від справжнього. Нехай нас цікавить величина інтервалу е на який відхилиться від справжньої оцінки числової характеристики, розраховане за результатами експериментальної вибірки. При цьому ми повинні наперед задати ймовірність в, значення якої викликало б у нас довіру до цього інтервалу (тобто високу ймовірність - 0.8, 0.9, 0.95). Цей інтервал так і називається - "довірчим".

Отже нам треба зробити дію, зворотну визначенню ймовірності

P(|-Чх[X]|< е)= в, (2.30)

Де Чх[X] - справжнє значення числової характеристики випадкової величини, - оцінка цього значення. Коли буде знайдено е, то справжнє значення числової характеристики буде знаходитися в межах - е < Чх[X] <+ е. Розмір довірчого інтервалу для кожної числової характеристики можна знайти із застосуванням функції Лапласа (тут наведено варіант формули для квантиля таблиці t=):

(2.31)

Де, , а Ф-1(в)- зворотне значення функції Лапласа, тобто таке значення аргументу (квантиля), при якому функція Лапласа дорівнює в.

Знати закон розподілу випадкової величини потрібно, щоб скористатися всіма вже раніше зробленими висновками щодо можливих характеристик цієї випадкової величини.

Для визначення того, якому закону підлягає випадкова величина, необхідно вибрати цей закон (чи рівномірний, чи експоненціальний, чи нормальний, чи ще який) і висунути так звану "нуль-гіпотезу" про те, що математичне сподівання та середнє квадратичне відхилення (чи дисперсія) для цього закону дорівнюють оцінкам цих величин, отриманих з результатів розрахунку за вибіркою випадкової величини з певною довірчою ймовірністю р.

Далі, розбиваємо область існування випадкової величини на діапазони з урахуванням (2.21) і знаходимо відносні частоти kІ. Для кожного діапазону знаходимо ймовірності попадання випадкової величини в конкретний діапазон за формулою

Р(хі<x<xi+1) = F(xi+1) - F(хі), (2.32)

Де хі, xi+1 - значення випадкової величини на верхній і нижній межах і-го діапазону, F(x) - прийнята ними як нуль-гіпотеза, функція розподілу, у якій параметрами математичного сподівання та дисперсії слугують їхні оцінки, розраховані з експериментальної вибірки. Нуль-гіпотеза приймається, якщо критерій узгодження Пірсона (або "хі-квадрат")

, (2.33)

Буде менший або дорівнювати табличному значенню цього критерію при достатньо великому значенні довірчої ймовірності. Фрагмент таблиці критерію Пірсона ч2(r, р) поданий нижче. Тут п - розмір вибірки, kІ - частоти на відповідних діапазонах; рі - імовірності попадання випадкової величини в той же діапазон, по якому розраховані і відносні частоти: d - загальна кількість діапазонів, на які розбита область існування випадкової величини. r= d - s - 1 - число ступенів свободи, де s - число параметрів закону розподілу випадкової величини ми прийняли рівними значенню цих параметрів, отриманих на підставі розрахунків за експериментальною вибіркою. Так, для рівномірного, експоненціального закону і закону Пуассона s=1, бо для цих законів треба знати тільки математичне сподівання (дисперсія жорстко пов'язана з математичним сподіванням простою формулою), а для нормального s=2, тому що для визначення цього закону потрібно знати вже два параметри m та у.

У деяких задачах практики зустрічаються безперервні випадкові величини, про які заздалегідь відомо, що їх можливі значення лежать в межах деякого певного інтервалу. Крім того, відомо, що в межах цього інтервалу всі значення випадкової величини однаково вірогідні (точніше, мають одну і ту ж щільність імовірності). Про такі випадкові величини кажуть, що вони розподіляються згідно із законом рівномірної щільності.

Розглянемо випадкову величину X, підлеглу закону рівномірної щільності на дільниці від б до в, і напишемо для неї вираз щільності розподілу f(х). Щільність f(х) постійна і дорівнює с на відрізку (б, в); поза цим відрізком вона обертається в нуль: f(х) = с, при б< x< в; f(х) = 0 при х < б або х > в.

Оскільки площа, обмежена кривою розподілу, дорівнює одиниці, то с(в - б) = 1 i c=1/( в - б) і щільність розподілу f(х) має вигляд

F(х)=1/(в-б), при б < x < в (2.34)

F(х)=0 при х < б або х > в

Ця формула і виражає закон рівномірної щільності на ділянці (б, в).

Похожие статьи




Теоретичні основи розрахунку ймовірностей і математична статистика - Дослідження попиту годинників з метою оптимізації номенклатури на прикладі фірми "Годинникар"

Предыдущая | Следующая