Statyka matematyczna. Podręcznik: Statystyka matematyczna


Treść.

1. Wstęp:
- W jaki sposób wykorzystuje się teorię prawdopodobieństwa i statystykę matematyczną? - Strona 2
- Co to jest „statystyka matematyczna”? - strona 3
2) Przykłady zastosowania teorii prawdopodobieństwa i statystyki matematycznej:
- Próbkowanie. - strona 4
- Zadania oceniające. – strona 6
- Metody probabilistyczno-statystyczne i optymalizacja. – strona 7
3) Wniosek.

Wstęp.

Jak wykorzystuje się teorię prawdopodobieństwa i statystykę matematyczną? Dyscypliny te stanowią podstawę probabilistycznych i statystycznych metod podejmowania decyzji. Aby skorzystać z ich aparatu matematycznego, konieczne jest wyrażenie problemów decyzyjnych w kategoriach modeli probabilistyczno-statystycznych. Zastosowanie określonej probabilistyczno-statystycznej metody podejmowania decyzji składa się z trzech etapów:
- przejście od rzeczywistości ekonomicznej, zarządczej, technologicznej do abstrakcyjnego schematu matematyczno-statystycznego, tj. budowa probabilistycznego modelu układu sterowania, procesu technologicznego, procedury decyzyjnej, w szczególności w oparciu o wyniki kontroli statystycznej itp.
- przeprowadzanie obliczeń i wyciąganie wniosków środkami czysto matematycznymi w ramach modelu probabilistycznego;
- interpretacja wniosków matematycznych i statystycznych w odniesieniu do sytuacji rzeczywistej i podjęcie właściwej decyzji (np. o zgodności lub niezgodności jakości produktu z ustalonymi wymaganiami, konieczności dostosowania procesu technologicznego itp.), w szczególności , wnioski (o udziale wadliwych jednostek produktu w partii, o specyficznym rodzaju praw rozkładu kontrolowanych parametrów procesu technologicznego itp.).

Statystyka matematyczna wykorzystuje pojęcia, metody i wyniki teorii prawdopodobieństwa. Rozważmy główne zagadnienia konstruowania probabilistycznych modeli podejmowania decyzji w sytuacjach ekonomicznych, zarządczych, technologicznych i innych. Do aktywnego i prawidłowego korzystania z dokumentów regulacyjnych, technicznych i instruktażowych dotyczących probabilistycznych i statystycznych metod podejmowania decyzji wymagana jest wstępna wiedza. Trzeba zatem wiedzieć, w jakich warunkach dany dokument powinien być używany, jakie informacje wstępne są niezbędne do jego wyboru i zastosowania, jakie decyzje należy podjąć na podstawie wyników przetwarzania danych itp.

Co to jest „statystyka matematyczna”? Przez statystykę matematyczną rozumie się „dział matematyki poświęcony matematycznym metodom gromadzenia, systematyzowania, przetwarzania i interpretacji danych statystycznych, a także wykorzystywania ich do wniosków naukowych lub praktycznych”. Zasady i procedury statystyki matematycznej opierają się na teorii prawdopodobieństwa, która pozwala ocenić trafność i rzetelność wniosków uzyskanych w każdym zadaniu na podstawie dostępnego materiału statystycznego.” Dane statystyczne oznaczają w tym przypadku informację o liczbie obiektów w mniej lub bardziej rozbudowanym zbiorze, które posiadają określone cechy.

W zależności od rodzaju rozwiązywanych problemów statystykę matematyczną dzieli się zwykle na trzy sekcje: opis danych, estymacja i testowanie hipotez.

Ze względu na rodzaj przetwarzanych danych statystycznych statystykę matematyczną dzieli się na cztery obszary:

Statystyka jednoczynnikowa (statystyka zmiennych losowych), w której wynik obserwacji opisuje się liczbą rzeczywistą;

Wieloczynnikowa analiza statystyczna, gdzie wynik obserwacji obiektu opisuje się kilkoma liczbami (wektorami);

Statystyka procesów losowych i szeregów czasowych, gdzie wynik obserwacji jest funkcją;

Statystyka obiektów o charakterze nienumerycznym, w których wynik obserwacji ma charakter nienumeryczny, np. jest zbiorem (figurą geometryczną), uporządkowaniem lub uzyskany w wyniku pomiaru na podstawie na kryterium jakościowym.

Przykłady zastosowania teorii prawdopodobieństwa i statystyki matematycznej.
Rozważmy kilka przykładów, w których probabilistyczne modele statystyczne są dobrym narzędziem do rozwiązywania problemów zarządczych, produkcyjnych, ekonomicznych i gospodarki narodowej. Na przykład moneta używana jako lot musi być „symetryczna”, tj. podczas rzucania średnio w połowie przypadków powinien pojawić się herb, a w połowie przypadków - hash (reszka, liczba). Ale co oznacza „średnio”? Jeśli przeprowadzisz wiele serii po 10 rzutów w każdej serii, często spotkasz serie, w których moneta wyląduje jako herb 4 razy. W przypadku monety symetrycznej stanie się to w 20,5% przebiegów. A jeśli po 100 000 rzutów wyjdzie 40 000 herbów, to czy monetę można uznać za symetryczną? Procedura decyzyjna opiera się na teorii prawdopodobieństwa i statystyce matematycznej.

Podany przykład może nie wydawać się wystarczająco poważny. Jednak tak nie jest. Losowanie ma szerokie zastosowanie w organizowaniu przemysłowych eksperymentów technicznych i ekonomicznych, np. przy przetwarzaniu wyników pomiarów wskaźnika jakości (momentu tarcia) łożysk w zależności od różnych czynników technologicznych (wpływ środowiska konserwatorskiego, sposoby przygotowania łożysk przed pomiarem) , wpływ obciążeń łożysk podczas procesu pomiaru itp.).P.). Załóżmy, że konieczne jest porównanie jakości łożysk w zależności od wyników ich przechowywania w różnych olejach konserwujących, tj. w olejach o składzie A i B. Planując taki eksperyment pojawia się pytanie, które łożyska umieścić w oleju o składzie A, a które w oleju o składzie B, ale w taki sposób, aby uniknąć subiektywizmu i zapewnić obiektywność podjętej decyzji.

Próbka
Odpowiedź na to pytanie można uzyskać w drodze losowania. Podobny przykład można podać w przypadku kontroli jakości dowolnego produktu. Aby zdecydować, czy kontrolowana partia produktów spełnia ustalone wymagania, wybiera się z niej próbkę. Na podstawie wyników kontroli próbki wyciąga się wnioski dotyczące całej partii. W tym przypadku bardzo ważne jest, aby przy doborze próbki unikać subiektywizmu, czyli konieczne jest, aby każda jednostka produktu w kontrolowanej partii miała takie samo prawdopodobieństwo, że zostanie wybrana do próbki. W warunkach produkcyjnych dobór jednostek produktu do próbki zwykle nie odbywa się losowo, ale za pomocą specjalnych tablic liczb losowych lub za pomocą komputerowych czujników liczb losowych.
Podobne problemy z zapewnieniem obiektywności porównania pojawiają się przy porównywaniu różnych schematów organizacji produkcji, wynagrodzeń, podczas przetargów i konkursów, selekcji kandydatów na wolne stanowiska itp. Wszędzie potrzebujemy remisu lub podobnych procedur. Wyjaśnijmy na przykładzie identyfikacji najsilniejszych i drugich najsilniejszych drużyn przy organizacji turnieju według systemu olimpijskiego (przegrany jest eliminowany). Niech silniejsza drużyna zawsze pokona słabszą. Wiadomo, że najsilniejszy zespół z pewnością zostanie mistrzem. Druga najsilniejsza drużyna dotrze do finału wtedy i tylko wtedy, gdy przed finałem nie rozegra żadnych meczów z przyszłym mistrzem. Jeśli taki mecz będzie zaplanowany, druga najsilniejsza drużyna nie dostanie się do finału. Ten, kto planuje turniej, może albo „wybić” z turnieju drugą najsilniejszą drużynę przed terminem, stawiając ją przeciwko liderowi już na pierwszym spotkaniu, albo zapewnić jej drugie miejsce, zapewniając spotkania ze słabszymi zespołami aż do samego końca. finał. Aby uniknąć subiektywizmu przeprowadza się losowanie. W przypadku turnieju, w którym bierze udział 8 drużyn, prawdopodobieństwo, że dwie najlepsze drużyny spotkają się w finale, wynosi 4/7. W związku z tym z prawdopodobieństwem 3/7 druga najsilniejsza drużyna opuści turniej wcześniej.
Wszelkie pomiary jednostek produktu (za pomocą suwmiarki, mikrometru, amperomierza itp.) zawierają błędy. Aby dowiedzieć się, czy występują błędy systematyczne, należy wykonać powtarzalne pomiary jednostki produktu, którego cechy są znane (na przykład próbka standardowa). Należy pamiętać, że oprócz błędu systematycznego występuje również błąd losowy.

Powstaje zatem pytanie, jak z wyników pomiarów dowiedzieć się, czy występuje błąd systematyczny. Jeśli tylko zanotujemy, czy błąd uzyskany przy kolejnym pomiarze jest dodatni czy ujemny, to zadanie to można sprowadzić do poprzedniego. Rzeczywiście, porównajmy pomiar do rzucenia monetą, błąd dodatni do utraty herbu, błąd ujemny do siatki (błąd zerowy przy wystarczającej liczbie działek skali prawie nigdy nie występuje). Wówczas sprawdzenie braku błędu systematycznego jest równoznaczne ze sprawdzeniem symetrii monety.

Celem tych rozważań jest sprowadzenie problemu sprawdzenia braku błędu systematycznego do problemu sprawdzenia symetrii monety. Powyższe rozumowanie prowadzi do tzw. „kryterium znaku” w statystyce matematycznej.
„Test znaków” to kryterium statystyczne umożliwiające sprawdzenie hipotezy zerowej, że próbka spełnia rozkład dwumianowy z parametrem p=1/2. Test znaków można wykorzystać jako nieparametryczny test statystyczny do sprawdzenia hipotezy, że mediana jest równa danej wartości (w szczególności zeru) i że w dwóch powiązanych próbkach nie występuje błąd systematyczny (brak efektu leczenia). Pozwala także przetestować hipotezę o symetrii rozkładu, jednak istnieją do tego potężniejsze kryteria - test Wilcoxona dla jednej próby i jego modyfikacje.

W statystycznej regulacji procesów technologicznych, w oparciu o metody statystyki matematycznej, opracowywane są zasady i plany statystycznego sterowania procesami, mające na celu wczesne wykrywanie problemów w procesach technologicznych i podejmowanie działań korygujących je oraz zapobiegających uwalnianiu produktów, które nie spełniać ustalone wymagania. Działania te mają na celu zmniejszenie kosztów produkcji i strat wynikających z dostaw jednostek niskiej jakości. Podczas statystycznej kontroli akceptacji, w oparciu o metody statystyki matematycznej, opracowywane są plany kontroli jakości poprzez analizę próbek z partii produktów. Trudność polega na tym, aby móc poprawnie zbudować probabilistyczno-statystyczne modele podejmowania decyzji, na podstawie których można odpowiedzieć na postawione powyżej pytania. W statystyce matematycznej opracowano w tym celu modele probabilistyczne i metody testowania hipotez, w szczególności hipotez, że udział wadliwych jednostek produkcji jest równy pewnej liczbie p0, na przykład p0 = 0,23.

Zadania oceniające.
W szeregu sytuacji zarządczych, produkcyjnych, gospodarczych i gospodarki narodowej pojawiają się problemy innego rodzaju - problemy oceny cech i parametrów rozkładów prawdopodobieństwa.

Spójrzmy na przykład. Niech do kontroli przybędzie partia lamp elektrycznych N. Z tej partii wybrano losowo próbkę n lamp elektrycznych. Pojawia się wiele naturalnych pytań. Jak określić średnią żywotność lamp elektrycznych na podstawie wyników badań przykładowych elementów i z jaką dokładnością można ocenić tę charakterystykę? Jak zmieni się dokładność, jeśli weźmiemy większą próbkę? Przy jakiej liczbie godzin T można zagwarantować, że co najmniej 90% lamp elektrycznych będzie działać przez T lub więcej godzin?

Załóżmy, że podczas badania próbki n lamp elektrycznych, X lamp elektrycznych okazało się wadliwych. Następnie pojawiają się następujące pytania. Jakie limity można określić dla liczby D wadliwych lamp elektrycznych w partii, dla poziomu wadliwości D/N itp.?

Lub też, analizując statystycznie dokładność i stabilność procesów technologicznych, należy ocenić takie wskaźniki jakości, jak średnia wartość kontrolowanego parametru i stopień jego rozproszenia w rozpatrywanym procesie. Zgodnie z teorią prawdopodobieństwa wskazane jest wykorzystywanie jej matematycznego oczekiwania jako średniej wartości zmiennej losowej, a rozproszenia, odchylenia standardowego lub współczynnika zmienności jako statystycznej charakterystyki rozrzutu. Nasuwa się pytanie: jak oszacować te charakterystyki statystyczne na podstawie przykładowych danych i z jaką dokładnością można to zrobić? Podobnych przykładów można podać wiele. Ważne było tutaj pokazanie, w jaki sposób teoria prawdopodobieństwa i statystyka matematyczna mogą zostać wykorzystane w zarządzaniu produkcją przy podejmowaniu decyzji z zakresu statystycznego zarządzania jakością produktu.

Metody probabilistyczno-statystyczne i optymalizacja. Idea optymalizacji przenika współczesną stosowaną statystykę matematyczną i inne metody statystyczne. Mianowicie metody planowania eksperymentów, statystyczna kontrola akceptacji, statystyczna regulacja procesów technologicznych itp. Z kolei sformułowania optymalizacyjne w teorii podejmowania decyzji, np. stosowana teoria optymalizacji jakości produktu i wymagań normowych, przewidują powszechne stosowanie probabilistycznych metod statystycznych, przede wszystkim stosowanej statystyki matematycznej.

W zarządzaniu produkcją, zwłaszcza przy optymalizacji jakości produktu i wymagań normowych, szczególnie istotne jest zastosowanie metod statystycznych na początkowym etapie cyklu życia produktu, tj. na etapie badań przygotowanie opracowań projektów eksperymentalnych (opracowanie obiecujących wymagań produktu, projekt wstępny, specyfikacje techniczne dotyczące opracowania projektu eksperymentalnego). Wynika to z ograniczonej ilości informacji dostępnych na początkowym etapie cyklu życia produktu oraz konieczności przewidywania możliwości technicznych i sytuacji ekonomicznej na przyszłość. Metody statystyczne należy stosować na wszystkich etapach rozwiązywania problemu optymalizacyjnego – przy skalowaniu zmiennych, opracowywaniu modeli matematycznych funkcjonowania produktów i systemów, przeprowadzaniu eksperymentów technicznych i ekonomicznych itp.

W zagadnieniach optymalizacji, w tym optymalizacji jakości produktu i wymagań normowych, wykorzystywane są wszystkie obszary statystyki. Mianowicie statystyka zmiennych losowych, wielowymiarowa analiza statystyczna, statystyka procesów losowych i szeregów czasowych, statystyka obiektów o charakterze nienumerycznym. Wskazane jest wybranie metody statystycznej do analizy konkretnych danych zgodnie z zaleceniami.

Wniosek.
W
itp.................

Jak wykorzystuje się teorię prawdopodobieństwa i statystykę matematyczną? Dyscypliny te są podstawą metod probabilistycznych i statystycznych podejmowanie decyzji. Aby korzystać z ich aparatu matematycznego, potrzebne są problemy podejmowanie decyzji wyrazić w kategoriach modeli probabilistyczno-statystycznych. Zastosowanie określonej metody probabilistyczno-statystycznej podejmowanie decyzji składa się z trzech etapów:

  • przejście od rzeczywistości ekonomicznej, zarządczej, technologicznej do abstrakcyjnego schematu matematyczno-statystycznego, tj. budowę probabilistycznego modelu układu sterowania, procesu technologicznego, procedury podejmowania decyzji, w szczególności na podstawie wyników kontroli statystycznej itp.;
  • prowadzenie obliczeń i wyciąganie wniosków środkami czysto matematycznymi w ramach modelu probabilistycznego;
  • w szczególności interpretacji wniosków matematycznych i statystycznych w odniesieniu do sytuacji rzeczywistej i podjęcia właściwej decyzji (np. o zgodności lub niezgodności jakości produktu z ustalonymi wymaganiami, konieczności dostosowania procesu technologicznego itp.), wnioski (o proporcjach wadliwych jednostek produktu w partii, o określonej formie prawa dystrybucji kontrolowane parametry proces technologiczny itp.).

Statystyka matematyczna wykorzystuje pojęcia, metody i wyniki teorii prawdopodobieństwa. Rozważmy główne zagadnienia konstruowania modeli probabilistycznych podejmowanie decyzji w sytuacjach ekonomicznych, zarządczych, technologicznych i innych. Za aktywne i prawidłowe korzystanie z dokumentów regulacyjnych, technicznych i instruktażowych dotyczących metod probabilistycznych i statystycznych podejmowanie decyzji wymagana jest wcześniejsza wiedza. Trzeba zatem wiedzieć, w jakich warunkach dany dokument powinien być używany, jakie informacje wstępne są niezbędne do jego wyboru i zastosowania, jakie decyzje należy podjąć na podstawie wyników przetwarzania danych itp.

Przykłady zastosowania teorii prawdopodobieństwa i statystyki matematycznej. Rozważmy kilka przykładów, w których modele probabilistyczno-statystyczne są dobrym narzędziem do rozwiązywania problemów związanych z zarządzaniem, produkcją, ekonomią i gospodarką narodową. Na przykład w powieści A.N. W „Walking Through Torment” Tołstoja (t. 1) czytamy: „warsztat produkuje dwadzieścia trzy procent defektów, trzymaj się tej liczby” – Strukow powiedział Iwanowi Iljiczowi.

Powstaje pytanie, jak rozumieć te słowa w rozmowie kierowników fabryk, skoro jedna jednostka produkcji nie może być wadliwa w 23%. Może być dobry lub wadliwy. Strukov prawdopodobnie miał na myśli, że partia wielkoseryjna zawiera około 23% wadliwych jednostek produkcyjnych. Powstaje zatem pytanie, co oznacza „w przybliżeniu”? Niech 30 na 100 sprawdzonych jednostek produkcyjnych okaże się wadliwych, albo na 1000-300, albo na 100000-30000 itd. Czy Strukowowi należy zarzucać kłamstwo?

Albo inny przykład. Moneta używana jako partia musi być „symetryczna”, tj. podczas rzucania średnio w połowie przypadków powinien wypaść herb, a w połowie przypadków - hash (reszka, liczba). Ale co oznacza „średnio”? Jeśli przeprowadzisz wiele serii po 10 rzutów w każdej serii, często spotkasz serie, w których moneta wyląduje jako herb 4 razy. W przypadku monety symetrycznej stanie się to w 20,5% przebiegów. A jeśli po 100 000 rzutów wyjdzie 40 000 herbów, to czy monetę można uznać za symetryczną? Procedura podejmowanie decyzji opiera się na teorii prawdopodobieństwa i statystyce matematycznej.

Podany przykład może nie wydawać się wystarczająco poważny. Jednak tak nie jest. Losowanie ma szerokie zastosowanie w organizowaniu przemysłowych eksperymentów technicznych i ekonomicznych, np. przy przetwarzaniu wyników pomiarów wskaźnika jakości (momentu tarcia) łożysk w zależności od różnych czynników technologicznych (wpływ środowiska konserwatorskiego, sposoby przygotowania łożysk przed pomiarem) , wpływ obciążeń łożysk podczas procesu pomiaru itp.).P.). Załóżmy, że konieczne jest porównanie jakości łożysk w zależności od wyników ich przechowywania w różnych olejach konserwujących, tj. w olejach kompozycji i. Planując taki eksperyment pojawia się pytanie, które łożyska umieścić w oleju kompozycji, a które w oleju kompozycji, ale w taki sposób, aby uniknąć subiektywizmu i zapewnić obiektywność podjętej decyzji.

Odpowiedź na to pytanie można uzyskać w drodze losowania. Podobny przykład można podać w przypadku kontroli jakości dowolnego produktu. Aby stwierdzić, czy kontrolowana partia produktów spełnia ustalone wymagania, pobiera się próbkę. Na podstawie wyników kontroli próbki wyciąga się wnioski dotyczące całej partii. W tym przypadku bardzo ważne jest unikanie subiektywizmu przy tworzeniu próbki, tj. konieczne jest, aby każda jednostka produktu w kontrolowanej partii miała takie samo prawdopodobieństwo wybrania do próbki. W warunkach produkcyjnych dobór jednostek produktu do próbki zwykle nie odbywa się losowo, ale za pomocą specjalnych tablic liczb losowych lub za pomocą komputerowych czujników liczb losowych.

Podobne problemy z zapewnieniem obiektywności porównania pojawiają się przy porównywaniu różnych schematów organizacja produkcji, wynagrodzeń, w trakcie przetargów i konkursów, selekcji kandydatów na wolne stanowiska itp. Wszędzie potrzebujemy remisu lub podobnych procedur. Wyjaśnijmy na przykładzie identyfikacji najsilniejszych i drugich najsilniejszych drużyn przy organizacji turnieju według systemu olimpijskiego (przegrany jest eliminowany). Niech silniejsza drużyna zawsze pokona słabszą. Wiadomo, że najsilniejszy zespół z pewnością zostanie mistrzem. Druga najsilniejsza drużyna dotrze do finału wtedy i tylko wtedy, gdy przed finałem nie rozegra żadnych meczów z przyszłym mistrzem. Jeśli taki mecz będzie zaplanowany, druga najsilniejsza drużyna nie dostanie się do finału. Ten, kto planuje turniej, może albo „wybić” drugą najsilniejszą drużynę z turnieju przed terminem, stawiając ją przeciwko liderowi już w pierwszym spotkaniu, albo zapewnić jej drugie miejsce, zapewniając spotkania ze słabszymi zespołami aż do finału . Aby uniknąć subiektywizmu przeprowadza się losowanie. W przypadku turnieju, w którym bierze udział 8 drużyn, prawdopodobieństwo, że dwie najlepsze drużyny spotkają się w finale, wynosi 4/7. W związku z tym z prawdopodobieństwem 3/7 druga najsilniejsza drużyna opuści turniej wcześniej.

Wszelkie pomiary jednostek produktu (za pomocą suwmiarki, mikrometru, amperomierza itp.) zawierają błędy. Aby dowiedzieć się, czy występują błędy systematyczne, należy wykonać powtarzalne pomiary jednostki produktu, którego cechy są znane (na przykład próbka standardowa). Należy pamiętać, że oprócz błędu systematycznego występuje również błąd losowy.

Powstaje zatem pytanie, jak z wyników pomiarów dowiedzieć się, czy występuje błąd systematyczny. Jeśli tylko zanotujemy, czy błąd uzyskany przy kolejnym pomiarze jest dodatni czy ujemny, to zadanie to można sprowadzić do poprzedniego. Rzeczywiście, porównajmy pomiar do rzucenia monetą, błąd dodatni do utraty herbu, a błąd ujemny do siatki (błąd zerowy przy wystarczającej liczbie działek skali prawie nigdy nie występuje). Wówczas sprawdzenie braku błędu systematycznego jest równoznaczne ze sprawdzeniem symetrii monety.

Celem tych rozważań jest sprowadzenie problemu sprawdzenia braku błędu systematycznego do problemu sprawdzenia symetrii monety. Powyższe rozumowanie prowadzi do tzw. „kryterium znaku” w statystyce matematycznej.

W statystycznej regulacji procesów technologicznych, w oparciu o metody statystyki matematycznej, opracowywane są zasady i plany statystycznego sterowania procesami, mające na celu wczesne wykrywanie problemów w procesach technologicznych, podejmowanie działań korygujących je i zapobieganie wypuszczaniu na rynek produktów, które nie spełniać ustalone wymagania. Działania te mają na celu zmniejszenie kosztów produkcji i strat wynikających z dostaw jednostek niskiej jakości. Podczas statystycznej kontroli akceptacji, w oparciu o metody statystyki matematycznej, opracowywane są plany kontroli jakości poprzez analizę próbek z partii produktów. Trudność polega na możliwości prawidłowego zbudowania probabilistycznych modeli statystycznych podejmowanie decyzji, na podstawie którego można odpowiedzieć na powyższe pytania. W statystyce matematycznej opracowano w tym celu modele probabilistyczne i metody testowania hipotez, w szczególności hipotez, że proporcja wadliwych jednostek produkcji jest równa określonej liczbie, na przykład (pamiętajcie słowa Strukowa z powieści autorstwa A.N. Tołstoj).

Cele oceny. W szeregu sytuacji zarządczych, produkcyjnych, gospodarczych i gospodarki narodowej pojawiają się problemy innego rodzaju - problemy oceny cech i parametrów rozkładów prawdopodobieństwa.

Spójrzmy na przykład. Niech do kontroli przybędzie partia lamp elektrycznych N. Z tej partii wybrano losowo próbkę n lamp elektrycznych. Pojawia się wiele naturalnych pytań. Jak określić średnią żywotność lamp elektrycznych na podstawie wyników badań przykładowych elementów i z jaką dokładnością można ocenić tę charakterystykę? Jak zmieni się dokładność, jeśli weźmiemy większą próbkę? Przy jakiej liczbie godzin można zagwarantować, że co najmniej 90% lamp elektrycznych będzie działać dłużej niż godziny?

Załóżmy, że podczas badania próbki objętościowej lamp elektrycznych okazało się, że są one wadliwe. Następnie pojawiają się następujące pytania. Jakie limity można określić w odniesieniu do liczby wadliwych lamp elektrycznych w partii, poziomu wadliwości itp.?

Albo analizując statystycznie dokładność i stabilność procesów technologicznych, należy je ocenić wskaźniki jakości, jako wartość średnia kontrolowany parametr oraz stopień jego rozproszenia w rozpatrywanym procesie. Zgodnie z teorią prawdopodobieństwa wskazane jest, aby jej matematyczne oczekiwanie przyjmować jako średnią wartość zmiennej losowej, a rozrzut, odchylenie standardowe lub współczynnik zmienności. Nasuwa się pytanie: jak oszacować te charakterystyki statystyczne na podstawie przykładowych danych i z jaką dokładnością można to zrobić? Podobnych przykładów można podać wiele. Ważne było tutaj pokazanie, w jaki sposób teoria prawdopodobieństwa i statystyka matematyczna mogą zostać wykorzystane w zarządzaniu produkcją przy podejmowaniu decyzji z zakresu statystycznego zarządzania jakością produktu.

Co to jest „statystyka matematyczna”? Przez statystykę matematyczną rozumie się „dział matematyki zajmujący się matematycznymi metodami gromadzenia, systematyzowania, przetwarzania i interpretacji danych statystycznych, a także wykorzystywania ich do wniosków naukowych lub praktycznych. Zasady i procedury statystyki matematycznej opierają się na teorii prawdopodobieństwa, która pozwala ocenić trafność i rzetelność wniosków uzyskanych w każdym zadaniu na podstawie dostępnego materiału statystycznego” [[2.2], s. 326]. Dane statystyczne oznaczają w tym przypadku informację o liczbie obiektów w mniej lub bardziej rozbudowanym zbiorze, które posiadają określone cechy.

W zależności od rodzaju rozwiązywanych problemów statystykę matematyczną dzieli się zwykle na trzy sekcje: opis danych, estymacja i testowanie hipotez.

Ze względu na rodzaj przetwarzanych danych statystycznych statystykę matematyczną dzieli się na cztery obszary:

  • statystyka jednowymiarowa (statystyka zmiennych losowych), w której wynik obserwacji opisuje się liczbą rzeczywistą;
  • wieloczynnikowa analiza statystyczna, w której wynik obserwacji obiektu opisuje się kilkoma liczbami (wektorami);
  • statystyka procesów losowych i szeregów czasowych, gdzie wynik obserwacji jest funkcją;
  • statystyka obiektów o charakterze nienumerycznym, w której wynik obserwacji ma charakter nienumeryczny, np. jest zbiorem (figurą geometryczną), uporządkowaniem lub uzyskany w wyniku pomiaru na podstawie kryterium jakościowe.

Historycznie rzecz biorąc, jako pierwsze pojawiły się pewne obszary statystyki obiektów o charakterze nienumerycznym (w szczególności problemy szacowania proporcji defektów i testowania hipotez na jej temat) oraz statystyki jednowymiarowej. Aparat matematyczny jest dla nich prostszy, dlatego ich przykład jest zwykle używany do zademonstrowania podstawowych idei statystyki matematycznej.

Tylko te sposoby przetwarzania danych, tj. statystyka matematyczna opiera się na dowodach, które opierają się na probabilistycznych modelach odpowiednich rzeczywistych zjawisk i procesów. Mówimy o modelach zachowań konsumenckich, występowaniu zagrożeń, funkcjonowaniu urządzeń technologicznych, uzyskiwaniu wyników eksperymentów, przebiegu choroby itp. Model probabilistyczny zjawiska rzeczywistego należy uznać za skonstruowany, jeżeli rozważane wielkości i powiązania między nimi wyrażone są w kategoriach teorii prawdopodobieństwa. Zgodność z probabilistycznym modelem rzeczywistości, tj. jej adekwatność potwierdza się w szczególności za pomocą statystycznych metod testowania hipotez.

Nieprobabilistyczne metody przetwarzania danych mają charakter eksploracyjny, można je stosować jedynie we wstępnej analizie danych, gdyż nie pozwalają na ocenę trafności i wiarygodności wniosków uzyskanych na podstawie ograniczonego materiału statystycznego.

Probabilistyczne i metody statystyczne ma zastosowanie wszędzie tam, gdzie możliwe jest zbudowanie i uzasadnienie probabilistycznego modelu zjawiska lub procesu. Ich stosowanie jest obowiązkowe, gdy wnioski wyciągnięte z danych próby przenoszone są na całą populację (np. z próbki na całą partię produktów).

W określonych obszarach zastosowań stosuje się je jako probabilistyczne metody statystyczne szerokie zastosowanie i specyficzne. Przykładowo w dziale zarządzania produkcją poświęconym statystycznym metodom zarządzania jakością produktu wykorzystuje się stosowaną statystykę matematyczną (w tym projektowanie eksperymentów). Stosując jego metody, jest to przeprowadzane Analiza statystyczna dokładność i stabilność procesów technologicznych oraz statystyczna ocena jakości. Specyficzne metody obejmują statystyczną kontrolę akceptacji jakości produktu, statystyczną regulację procesów technologicznych, ocenę i kontrolę niezawodności itp.

Powszechnie stosowane są stosowane dyscypliny probabilistyczne i statystyczne, takie jak teoria niezawodności i teoria kolejkowania. Treść pierwszego z nich wynika jasno z nazwy, drugi dotyczy badania systemów takich jak centrala telefoniczna odbierająca połączenia w losowych momentach – wymagań abonentów wybierających numery w swoich aparatach telefonicznych. Czas obsługi tych wymagań, tj. czas trwania rozmów jest również modelowany za pomocą zmiennych losowych. Wielki wkład w rozwój tych dyscyplin wniósł członek korespondent Akademii Nauk ZSRR A.Ya. Khinchin (1894-1959), akademik Akademii Nauk Ukraińskiej SRR B.V. Gnedenko (1912-1995) i inni krajowi naukowcy.

Krótko o historii statystyki matematycznej. Statystyka matematyczna jako nauka zaczyna się od prac słynnego niemieckiego matematyka Carla Friedricha Gaussa (1777-1855), który w oparciu o teorię prawdopodobieństwa zbadał i uzasadnił metoda najmniejszych kwadratów, stworzony przez niego w 1795 roku i służący do przetwarzania danych astronomicznych (w celu wyjaśnienia orbity małej planety Ceres). Jego imieniem często nazywa się jeden z najpopularniejszych rozkładów prawdopodobieństwa, normalny, a w teorii procesów losowych głównym przedmiotem badań są procesy Gaussa.

Pod koniec XIX wieku. - początek 20 wieku Największy wkład w statystykę matematyczną wnieśli badacze angielscy, przede wszystkim K. Pearson (1857-1936) i R.A. Fischera (1890-1962). W szczególności Pearson opracował test chi-kwadrat do testowania hipotez statystycznych, a Fisher – analiza wariancji, teoria projektowania eksperymentów, metoda największej wiarygodności estymacji parametrów.

W latach 30. XX w. Polak Jerzy Neumann (1894-1977) i Anglik E. Pearson opracowali ogólną teorię testowania hipotez statystycznych, a radzieccy matematycy Akademik A.N. Kołmogorow (1903–1987) i członek korespondent Akademii Nauk ZSRR N.V. Smirnow (1900-1966) położył podwaliny pod statystykę nieparametryczną. W latach czterdziestych XX w. Rumun A. Wald (1902-1950) zbudował teorię sekwencyjnej analizy statystycznej.

Statystyka matematyczna rozwija się obecnie dynamicznie. Tym samym na przestrzeni ostatnich 40 lat można wyróżnić cztery zasadniczo nowe obszary badań [[2.16]]:

  • opracowywanie i wdrażanie matematycznych metod planowania eksperymentów;
  • rozwój statystyki obiektów o charakterze nienumerycznym jako samodzielny kierunek stosowanej statystyki matematycznej;
  • rozwój metod statystycznych odpornych na niewielkie odchylenia od stosowanego modelu probabilistycznego;
  • powszechny rozwój prac nad tworzeniem pakietów programów komputerowych przeznaczonych do statystycznej analizy danych.

Metody probabilistyczno-statystyczne i optymalizacja. Idea optymalizacji przenika współczesną stosowaną statystykę matematyczną i nie tylko metody statystyczne. Mianowicie metody planowania eksperymentów, statystyczna kontrola akceptacji, statystyczna regulacja procesów technologicznych itp. Natomiast sformułowania optymalizacyjne w teorii podejmowanie decyzji na przykład stosowana teoria optymalizacji jakości produktu i wymagania normowe, przewidują powszechne stosowanie probabilistycznych metod statystycznych, przede wszystkim stosowanej statystyki matematycznej.

Szczególnie w zarządzaniu produkcją, przy optymalizacji jakości produktów i wymagań normowych, szczególnie ważne jest zastosowanie metody statystyczne na początkowym etapie cyklu życia produktu, tj. na etapie badań przygotowanie opracowań projektów eksperymentalnych (opracowanie obiecujących wymagań produktu, projekt wstępny, specyfikacje techniczne dotyczące opracowania projektu eksperymentalnego). Wynika to z ograniczonej ilości informacji dostępnych na początkowym etapie cyklu życia produktu oraz konieczności przewidywania możliwości technicznych i sytuacji ekonomicznej na przyszłość. metody statystyczne należy stosować na wszystkich etapach rozwiązywania problemu optymalizacyjnego – przy skalowaniu zmiennych, opracowywaniu modeli matematycznych funkcjonowania produktów i systemów, przeprowadzaniu eksperymentów technicznych i ekonomicznych itp.

W zagadnieniach optymalizacji, w tym optymalizacji jakości produktu i wymagań normowych, wykorzystywane są wszystkie obszary statystyki. Mianowicie statystyka zmiennych losowych, wielowymiarowa Analiza statystyczna, statystyka procesów losowych i szeregów czasowych, statystyka obiektów o charakterze nienumerycznym. Wskazane jest wybranie metody statystycznej do analizy konkretnych danych zgodnie z zaleceniami [

Wstęp

2. Podstawowe pojęcia statystyki matematycznej

2.1 Podstawowe pojęcia dotyczące metody pobierania próbek

2.2 Rozkład próbkowania

2.3 Rozkład empiryczny, histogram

Wniosek

Bibliografia

Wstęp

Statystyka matematyczna to nauka o matematycznych metodach systematyzowania i wykorzystywania danych statystycznych do wyciągania wniosków naukowych i praktycznych. Statystyka matematyczna w wielu swoich działach opiera się na teorii prawdopodobieństwa, która pozwala ocenić rzetelność i trafność wniosków wyciąganych na podstawie ograniczonego materiału statystycznego (np. oszacować wymaganą liczebność próby, aby uzyskać wyniki o wymaganej dokładności w ankiecie reprezentacyjnej).

Teoria prawdopodobieństwa uwzględnia zmienne losowe o zadanym rozkładzie lub eksperymenty losowe, których właściwości są całkowicie znane. Przedmiotem teorii prawdopodobieństwa są właściwości i zależności tych wielkości (rozkładów).

Ale często eksperyment jest czarną skrzynką, która daje tylko pewne wyniki, z których konieczne jest wyciągnięcie wniosków na temat właściwości samego eksperymentu. Obserwator ma zestaw wyników numerycznych (lub można je uczynić numerycznymi) uzyskanych poprzez powtórzenie tego samego losowego eksperymentu w tych samych warunkach.

W tym przypadku pojawiają się na przykład następujące pytania: Jeśli obserwujemy jedną zmienną losową, jak możemy wyciągnąć najdokładniejszy wniosek na temat jej rozkładu na podstawie zestawu jej wartości w kilku eksperymentach?

Przykładem takiej serii eksperymentów może być badanie socjologiczne, zestaw wskaźników ekonomicznych czy wreszcie sekwencja orłów i reszek przy tysiąckrotnym rzucie monetą.

Wszystkie powyższe czynniki determinują znaczenie oraz znaczenie tematu pracy na obecnym etapie, mającej na celu głębokie i wszechstronne przestudiowanie podstawowych pojęć statystyki matematycznej.

W związku z tym celem tej pracy jest usystematyzowanie, zgromadzenie i utrwalenie wiedzy na temat pojęć statystyki matematycznej.

1. Przedmiot i metody statystyki matematycznej

Statystyka matematyczna to nauka o matematycznych metodach analizy danych uzyskanych podczas obserwacji masowych (pomiary, eksperymenty). W zależności od matematycznego charakteru konkretnych wyników obserwacji, statystykę matematyczną dzieli się na statystykę liczb, wielowymiarową analizę statystyczną, analizę funkcji (procesów) i szeregów czasowych, statystykę obiektów o charakterze nienumerycznym. Znaczna część statystyki matematycznej opiera się na modelach probabilistycznych. Istnieją ogólne zadania polegające na opisywaniu danych, ocenie i testowaniu hipotez. Rozważają także bardziej szczegółowe zadania związane z prowadzeniem badań reprezentacyjnych, przywracaniem zależności, konstruowaniem i wykorzystaniem klasyfikacji (typologii) itp.

Aby opisać dane, budowane są tabele, diagramy i inne reprezentacje wizualne, na przykład pola korelacji. Modele probabilistyczne zwykle nie są używane. Niektóre metody opisu danych opierają się na zaawansowanej teorii i możliwościach współczesnych komputerów. Należą do nich w szczególności analiza skupień, mająca na celu identyfikację grup obiektów podobnych do siebie oraz skalowanie wielowymiarowe, które pozwala wizualnie przedstawić obiekty na płaszczyźnie, w jak najmniejszym stopniu zniekształcając odległości między nimi.

Metody oceny i testowania hipotez opierają się na probabilistycznych modelach generowania danych. Modele te dzielą się na parametryczne i nieparametryczne. W modelach parametrycznych zakłada się, że badane obiekty opisane są funkcjami rozkładu zależnymi od niewielkiej liczby (1-4) parametrów numerycznych. W modelach nieparametrycznych zakłada się, że funkcje dystrybucji są dowolnie ciągłe. W statystyce matematycznej parametry i charakterystyki rozkładu (oczekiwanie matematyczne, mediana, wariancja, kwantyle itp.), funkcje gęstości i rozkładu, zależności między zmiennymi (w oparciu o współczynniki korelacji liniowej i nieparametrycznej, a także parametryczne lub nieparametryczne oszacowania funkcji wyrażających zależności) są oceniane itp. Używają szacunków punktowych i przedziałowych (podając granice dla wartości prawdziwych).

W statystyce matematycznej istnieje ogólna teoria testowania hipotez i duża liczba metod służących do testowania konkretnych hipotez. Rozważają hipotezy o wartościach parametrów i cech, o sprawdzeniu jednorodności (czyli o zbieżności cech lub funkcji rozkładu w dwóch próbkach), o zgodności empirycznej funkcji rozkładu z zadaną dystrybuantą lub z parametryczną rodzinę takich funkcji, o symetrii rozkładu itp.

Duże znaczenie ma dział statystyki matematycznej związany z prowadzeniem badań reprezentacyjnych, właściwościami różnych schematów losowania oraz konstruowaniem odpowiednich metod oceny i testowania hipotez.

Problemy odzyskiwania zależności są aktywnie badane od ponad 200 lat, od czasu opracowania metody najmniejszych kwadratów przez K. Gaussa w 1794 roku. Obecnie najbardziej odpowiednimi metodami poszukiwania informacyjnego podzbioru zmiennych są metody nieparametryczne.

Rozwój metod aproksymacji danych i zmniejszania wymiaru opisu rozpoczął się ponad 100 lat temu, kiedy K. Pearson stworzył metodę głównych składowych. Później opracowano analizę czynnikową i liczne nieliniowe uogólnienia.

Różne metody konstruowania (analiza skupień), analizowania i stosowania (analiza dyskryminacyjna) klasyfikacji (typologii) nazywane są także metodami rozpoznawania wzorców (z nauczycielem i bez nauczyciela), klasyfikacją automatyczną itp.

Metody matematyczne w statystyce opierają się albo na wykorzystaniu sum (w oparciu o Centralne Twierdzenie Graniczne teorii prawdopodobieństwa), albo na wskaźnikach różnicy (odległości, metryki), podobnie jak w statystyce obiektów o charakterze nienumerycznym. Zwykle tylko wyniki asymptotyczne są ściśle uzasadnione. Obecnie komputery odgrywają dużą rolę w statystyce matematycznej. Wykorzystuje się je zarówno do obliczeń, jak i symulacji (w szczególności w metodach mnożenia próbek i badaniu przydatności wyników asymptotycznych).

Podstawowe pojęcia statystyki matematycznej

2.1 Podstawowe pojęcia metody pobierania próbek

Niech będzie zmienną losową zaobserwowaną w eksperymencie losowym. Zakłada się, że przestrzeń prawdopodobieństwa jest dana (i nie będzie nas interesować).

Założymy, że po przeprowadzeniu tego eksperymentu w tych samych warunkach otrzymaliśmy liczby , , , - wartości tej zmiennej losowej w pierwszym, drugim itd. eksperymenty. Zmienna losowa ma rozkład, który jest nam częściowo lub całkowicie nieznany.

Przyjrzyjmy się bliżej zbiorowi zwanemu próbką.

W serii przeprowadzonych już eksperymentów próbką jest zbiór liczb. Ale jeśli powtórzymy tę serię eksperymentów ponownie, zamiast tego zestawu otrzymamy nowy zestaw liczb. Zamiast liczby pojawi się inna liczba - jedna z wartości zmiennej losowej. Oznacza to, że (i, i itp.) jest wartością zmiennej, która może przyjmować te same wartości, co zmienna losowa i równie często (z tymi samymi prawdopodobieństwami). Zatem przed eksperymentem – zmienna losowa o identycznym rozkładzie z , a po eksperymencie – liczba, którą obserwujemy w tym pierwszym eksperymencie, tj. jedna z możliwych wartości zmiennej losowej.

Wielkość próby to zbiór niezależnych i identycznie rozłożonych zmiennych losowych („kopii”), które mają rozkład podobny do .

Co to znaczy „wyciągać wnioski na temat rozkładu na podstawie próbki”? Rozkład charakteryzuje się funkcją rozkładu, gęstością lub tabelą, zbiorem cech liczbowych - , itp. Korzystając z próbki, musisz być w stanie zbudować przybliżenia dla wszystkich tych cech.

.2 Dystrybucja próbek

Rozważmy wdrożenie próbkowania na jednym elementarnym wyniku - zestawie liczb , , . Na odpowiednią przestrzeń prawdopodobieństwa wprowadzamy zmienną losową przyjmującą wartości , , z prawdopodobieństwami według (jeśli którakolwiek z wartości się pokrywa, dodajemy prawdopodobieństwa odpowiednią ilość razy). Tabela rozkładu prawdopodobieństwa i funkcja rozkładu zmiennej losowej wyglądają następująco:

Rozkład wielkości nazywany jest rozkładem empirycznym lub rozkładem próbkowania. Obliczmy matematyczną wartość oczekiwaną i wariancję wielkości oraz wprowadźmy oznaczenie tych wielkości:

W ten sam sposób obliczymy moment porządkowy

W ogólnym przypadku oznaczamy przez ilość

Jeżeli konstruując wszystkie wprowadzone przez nas cechy uwzględnimy próbkę , , zbiór zmiennych losowych, to same te cechy - , , , - staną się zmiennymi losowymi. Te cechy rozkładu próbkowania służą do oszacowania (przybliżenia) odpowiednich nieznanych cech prawdziwego rozkładu.

Powodem wykorzystania charakterystyk rozkładu do oszacowania cech rozkładu prawdziwego (lub ) jest bliskość tych rozkładów w ogóle.

Rozważmy na przykład rzut zwykłą kostką. Pozwalać - liczba punktów zdobytych w rzucie, . Załóżmy, że jeden pojawia się w próbie raz, dwa – raz itd. Następnie zmienna losowa przyjmie wartości 1 , , 6 z prawdopodobieństwem , , odpowiednio. Ale te proporcje zbliżają się wraz ze wzrostem, zgodnie z prawem wielkich liczb. Oznacza to, że rozkład wartości w pewnym sensie zbliża się do prawdziwego rozkładu liczby punktów, które pojawiają się po rzucie właściwą kostką.

Nie będziemy wyjaśniać, co oznacza bliskość próby i prawdziwe rozkłady. W kolejnych akapitach przyjrzymy się bliżej każdej z przedstawionych powyżej cech i zbadamy jej właściwości, w tym zachowanie w miarę zwiększania się wielkości próbki.

.3 Rozkład empiryczny, histogram

Ponieważ nieznany rozkład można opisać na przykład za pomocą jego funkcji rozkładu, „oszacowanie” tej funkcji skonstruujemy na podstawie próby.

Definicja 1.

Empiryczna funkcja rozkładu skonstruowana na podstawie próbki objętości nazywana jest funkcją losową, dla każdego równego

Przypomnienie: Funkcja losowa

zwany wskaźnikiem zdarzenia. Dla każdego jest to zmienna losowa posiadająca rozkład Bernoulliego z parametrem . Dlaczego?

Innymi słowy, dla dowolnej wartości równej prawdziwemu prawdopodobieństwu, że zmienna losowa jest mniejsza niż , szacuje się ją na podstawie proporcji elementów próbki mniejszych niż .

Jeśli elementy próby , , zostaną uporządkowane rosnąco (przy każdym wyniku elementarnym), otrzymany zostanie nowy zestaw zmiennych losowych, zwany serią wariacyjną:

Element , nazywany jest th członkiem szeregu wariacyjnego lub statystyką th rzędu.

Przykład 1.

Próbka:

Seria zmian:

Ryż. 1. Przykład 1

Funkcja rozkładu empirycznego ma skoki w punktach próbkowania, wielkość skoku w punkcie jest równa , gdzie jest liczbą elementów próbki, które pokrywają się z .

Możesz skonstruować empiryczną funkcję rozkładu, korzystając z szeregu wariacji:

Inną cechą rozkładu jest tabela (dla rozkładów dyskretnych) lub gęstość (dla rozkładów absolutnie ciągłych). Empirycznym lub selektywnym analogiem tabeli lub gęstości jest tak zwany histogram.

Histogram tworzony jest na podstawie pogrupowanych danych. Oszacowany zakres wartości zmiennej losowej (lub zakres danych próbki) dzieli się, niezależnie od próby, na określoną liczbę przedziałów (niekoniecznie identycznych). Niech , , będą przedziałami na prostej, zwanymi przedziałami grupującymi. Oznaczmy przez liczbę elementów próbki mieszczących się w przedziale:

(1)

W każdym przedziale budowany jest prostokąt, którego powierzchnia jest proporcjonalna do . Całkowita powierzchnia wszystkich prostokątów musi być równa jeden. Niech będzie długością przedziału. Wysokość prostokąta powyżej wynosi

Wynikową liczbę nazywa się histogramem.

Przykład 2.

Istnieje szereg odmian (patrz przykład 1):

Oto zatem logarytm dziesiętny, tj. gdy próbka zostanie podwojona, liczba przedziałów grupujących wzrasta o 1. Należy pamiętać, że im więcej przedziałów grupujących, tym lepiej. Ale jeśli weźmiemy liczbę przedziałów, powiedzmy, rzędu , to wraz ze wzrostem histogram nie będzie zbliżał się do gęstości.

Poniższe stwierdzenie jest prawdziwe:

Jeżeli gęstość rozkładu elementów próbki jest funkcją ciągłą, to dla takiej, że istnieje punktowa zbieżność prawdopodobieństwa histogramu do gęstości.

Zatem wybór logarytmu jest rozsądny, ale nie jedyny możliwy.

Wniosek

Statystyka matematyczna (lub teoretyczna) opiera się na metodach i koncepcjach teorii prawdopodobieństwa, ale w pewnym sensie rozwiązuje problemy odwrotne.

Jeśli zaobserwujemy manifestację dwóch (lub więcej) znaków jednocześnie, tj. mamy zbiór wartości kilku zmiennych losowych – co możemy powiedzieć o ich zależności? Czy ona tam jest, czy nie? A jeśli tak, to na czym polega ta zależność?

Często można przyjąć pewne założenia dotyczące rozkładu ukrytego w czarnej skrzynce lub jego właściwości. W takim przypadku na podstawie danych eksperymentalnych należy potwierdzić lub obalić te założenia („hipotezy”). Należy pamiętać, że odpowiedź „tak” lub „nie” można udzielić tylko z pewnym stopniem pewności, a im dłużej będziemy kontynuować eksperyment, tym trafniejsze będą wnioski. Najkorzystniejsza sytuacja do badań ma miejsce, gdy można z całą pewnością stwierdzić pewne właściwości obserwowanego eksperymentu - na przykład obecność związku funkcjonalnego między obserwowanymi wielkościami, normalność rozkładu, jego symetrię, obecność gęstości w rozkładzie lub jego dyskretny charakter itp. .

Warto więc pamiętać o statystyce (matematycznej), jeśli

· istnieje eksperyment losowy, którego właściwości są częściowo lub całkowicie nieznane,

· jesteśmy w stanie odtworzyć ten eksperyment w tych samych warunkach pewną (lub jeszcze lepiej, dowolną) liczbę razy.

Bibliografia

1. Baumol U. Teoria ekonomii i badania operacyjne. - M.; Nauka, 1999.

2. Bolshev L.N., Smirnov N.V. Tablice statystyki matematycznej. M.: Nauka, 1995.

3. Borovkov A.A. Statystyka matematyczna. M.: Nauka, 1994.

4. Korn G., Korn T. Podręcznik matematyki dla naukowców i inżynierów. - Petersburg: Wydawnictwo Lan, 2003.

5. Korshunov D.A., Chernova N.I. Zbiór problemów i ćwiczeń ze statystyki matematycznej. Nowosybirsk: Wydawnictwo Instytutu Matematyki im. S.L. Sobolew SB RAS, 2001.

6. Peheletsky I.D. Matematyka: podręcznik dla studentów. - M.: Akademia, 2003.

7. Sukhodolsky V.G. Wykłady z matematyki wyższej dla humanistów. - Wydawnictwo St. Petersburga Państwowego Uniwersytetu w Petersburgu. 2003

8. Feller V. Wprowadzenie do teorii prawdopodobieństwa i jej zastosowań. - M.: Mir, T.2, 1984.

9. Harman G., Nowoczesna analiza czynnikowa. - M.: Statystyka, 1972.


Harman G., Nowoczesna analiza czynnikowa. - M.: Statystyka, 1972.

Przez statystykę matematyczną rozumie się „dział matematyki poświęcony matematycznym metodom gromadzenia, systematyzowania, przetwarzania i interpretacji danych statystycznych, a także wykorzystywania ich do wniosków naukowych lub praktycznych”. Zasady i procedury statystyki matematycznej opierają się na teorii prawdopodobieństwa, która pozwala ocenić trafność i rzetelność wniosków uzyskanych w każdym zadaniu na podstawie dostępnego materiału statystycznego.” Dane statystyczne oznaczają w tym przypadku informację o liczbie obiektów w mniej lub bardziej rozbudowanym zbiorze, które posiadają określone cechy.

W zależności od rodzaju rozwiązywanych problemów statystykę matematyczną dzieli się zwykle na trzy sekcje: opis danych, estymacja i testowanie hipotez.

Ze względu na rodzaj przetwarzanych danych statystycznych statystykę matematyczną dzieli się na cztery obszary:
- statystyka jednowymiarowa (statystyka zmiennych losowych), w której wynik obserwacji opisuje się liczbą rzeczywistą;
- wieloczynnikowa analiza statystyczna, gdzie wynik obserwacji obiektu opisuje się kilkoma liczbami (wektorami);
- statystyka procesów losowych i szeregów czasowych, gdzie wynik obserwacji jest funkcją;
- statystyka obiektów o charakterze nienumerycznym, w której wynik obserwacji ma charakter nienumeryczny, np. jest zbiorem (figurą geometryczną), uporządkowaniem lub uzyskany w wyniku pomiaru na podstawie na kryterium jakościowym.

Historycznie rzecz biorąc, jako pierwsze pojawiły się pewne obszary statystyki obiektów o charakterze nienumerycznym (w szczególności problemy szacowania proporcji defektów i testowania hipotez na jej temat) oraz statystyki jednowymiarowej. Aparat matematyczny jest dla nich prostszy, dlatego ich przykład jest zwykle używany do zademonstrowania podstawowych idei statystyki matematycznej.

Tylko te sposoby przetwarzania danych, tj. statystyka matematyczna opiera się na dowodach, które opierają się na probabilistycznych modelach odpowiednich rzeczywistych zjawisk i procesów. Mówimy o modelach zachowań konsumenckich, występowaniu zagrożeń, funkcjonowaniu urządzeń technologicznych, uzyskiwaniu wyników eksperymentów, przebiegu choroby itp. Model probabilistyczny zjawiska rzeczywistego należy uznać za skonstruowany, jeżeli rozważane wielkości i powiązania między nimi wyrażone są w kategoriach teorii prawdopodobieństwa. Zgodność z probabilistycznym modelem rzeczywistości, tj. jej adekwatność potwierdza się w szczególności za pomocą statystycznych metod testowania hipotez.

Nieprobabilistyczne metody przetwarzania danych mają charakter eksploracyjny, można je stosować jedynie we wstępnej analizie danych, gdyż nie pozwalają na ocenę trafności i wiarygodności wniosków uzyskanych na podstawie ograniczonego materiału statystycznego.

Metody probabilistyczne i statystyczne znajdują zastosowanie wszędzie tam, gdzie możliwe jest zbudowanie i uzasadnienie probabilistycznego modelu zjawiska lub procesu. Ich stosowanie jest obowiązkowe, gdy wnioski wyciągnięte z danych próby przenoszone są na całą populację (np. z próbki na całą partię produktów).

W określonych obszarach zastosowań stosuje się zarówno metody probabilistyczne, jak i statystyczne o zastosowaniu ogólnym i szczegółowym. Przykładowo w dziale zarządzania produkcją poświęconym statystycznym metodom zarządzania jakością produktu wykorzystuje się stosowaną statystykę matematyczną (w tym projektowanie eksperymentów). Za pomocą jej metod przeprowadza się analizę statystyczną dokładności i stabilności procesów technologicznych oraz statystyczną ocenę jakości. Metody szczegółowe obejmują metody statystycznej kontroli akceptacji jakości produktu, statystycznej regulacji procesów technologicznych, oceny i kontroli niezawodności itp.

Powszechnie stosowane są stosowane dyscypliny probabilistyczne i statystyczne, takie jak teoria niezawodności i teoria kolejkowania. Treść pierwszego z nich wynika jasno z nazwy, drugi dotyczy badania systemów takich jak centrala telefoniczna odbierająca połączenia w losowych momentach – wymagań abonentów wybierających numery w swoich aparatach telefonicznych. Czas obsługi tych wymagań, tj. czas trwania rozmów jest również modelowany za pomocą zmiennych losowych. Wielki wkład w rozwój tych dyscyplin wniósł członek korespondent Akademii Nauk ZSRR A.Ya. Khinchin (1894-1959), akademik Akademii Nauk Ukraińskiej SRR B.V. Gnedenko (1912-1995) i inni krajowi naukowcy.

Teoria prawdopodobieństwa i statystyka matematyczna stanowią podstawę probabilistycznych i statystycznych metod przetwarzania danych. Przetwarzamy i analizujemy dane przede wszystkim w celu podejmowania decyzji. Aby móc posługiwać się nowoczesnym aparatem matematycznym, konieczne jest wyrażenie rozważanych problemów w kategoriach modeli probabilistyczno-statystycznych.

Zastosowanie określonej metody probabilistyczno-statystycznej składa się z trzech etapów:

Przejście od rzeczywistości ekonomicznej, zarządczej, technologicznej do abstrakcyjnego schematu matematyczno-statystycznego, tj. budowa probabilistycznego modelu układu sterowania, procesu technologicznego, procedury decyzyjnej, w szczególności w oparciu o wyniki kontroli statystycznej itp.

Przeprowadzanie obliczeń i wyciąganie wniosków środkami czysto matematycznymi w ramach modelu probabilistycznego;

Interpretacja wniosków matematycznych i statystycznych w odniesieniu do sytuacji rzeczywistej i podjęcie właściwej decyzji (np. o zgodności lub niezgodności jakości produktu z ustalonymi wymaganiami, konieczności dostosowania procesu technologicznego itp.), w szczególności, wnioski (o udziale wadliwych jednostek produktu w partii, o określonej postaci praw rozkładu kontrolowanych parametrów procesu technologicznego itp.).

Statystyka matematyczna wykorzystuje pojęcia, metody i wyniki teorii prawdopodobieństwa. Następnie rozważamy główne zagadnienia konstruowania modeli probabilistycznych w sytuacjach ekonomicznych, zarządczych, technologicznych i innych. Podkreślamy, że do aktywnego i prawidłowego korzystania z dokumentów regulacyjnych, technicznych i instruktażowych dotyczących probabilistycznych metod statystycznych wymagana jest wstępna wiedza. Trzeba zatem wiedzieć, w jakich warunkach dany dokument powinien być używany, jakie informacje wstępne są niezbędne do jego wyboru i zastosowania, jakie decyzje należy podjąć na podstawie wyników przetwarzania danych itp.

Przykłady aplikacji teoria prawdopodobieństwa i statystyka matematyczna. Rozważmy kilka przykładów, w których modele probabilistyczno-statystyczne są dobrym narzędziem do rozwiązywania problemów związanych z zarządzaniem, produkcją, ekonomią i gospodarką narodową. I tak na przykład w powieści A.N. Tołstoja „Walking Through Torment” (t. 1) jest powiedziane: „warsztat produkuje dwadzieścia trzy procent odrzutów, trzymaj się tej liczby” – Strukow powiedział Iwanowi Iljiczowi.

Jak rozumieć te słowa w rozmowie kierowników fabryk? Jedna jednostka produkcyjna nie może być wadliwa w 23%. Może być dobry lub wadliwy. Strukov prawdopodobnie miał na myśli, że partia wielkoseryjna zawiera około 23% wadliwych jednostek produkcyjnych. Powstaje zatem pytanie, co oznacza „w przybliżeniu”? Niech 30 na 100 sprawdzonych jednostek produkcyjnych okaże się wadliwych, na 1000 - 300, na 100 000 - 30 000 itd. Czy trzeba oskarżać Strukowa o kłamstwo?

Albo inny przykład. Moneta używana jako partia musi być „symetryczna”. Podczas rzucania średnio w połowie przypadków powinien pojawić się herb (głowa), a w połowie przypadków znak krzyżyka (reszka, liczba). Ale co oznacza „średnio”? Jeśli przeprowadzisz wiele serii po 10 rzutów w każdej serii, często spotkasz serie, w których moneta wyląduje jako herb 4 razy. W przypadku monety symetrycznej stanie się to w 20,5% przebiegów. A jeśli po 100 000 rzutów wyjdzie 40 000 herbów, to czy monetę można uznać za symetryczną? Procedura decyzyjna opiera się na teorii prawdopodobieństwa i statystyce matematycznej.

Przykład może nie wydawać się wystarczająco poważny. Jednak tak nie jest. Losowanie jest szeroko stosowane w organizowaniu przemysłowych eksperymentów wykonalności. Np. przy przetwarzaniu wyników pomiaru wskaźnika jakości (momentu tarcia) łożysk w zależności od różnych czynników technologicznych (wpływ środowiska konserwacji, metody przygotowania łożysk przed pomiarem, wpływ obciążenia łożyska w procesie pomiaru itp.). ). Załóżmy, że konieczne jest porównanie jakości łożysk w zależności od wyników ich przechowywania w różnych olejach konserwujących, tj. w olejkach kompozycji A I W. Planując taki eksperyment pojawia się pytanie, które łożyska należy umieścić w oleju kompozycji A, a które - w kompozycji olejowej W, ale w taki sposób, aby uniknąć subiektywizmu i zapewnić obiektywność podjętej decyzji. Odpowiedź na to pytanie można uzyskać w drodze losowania.

Podobny przykład można podać w przypadku kontroli jakości dowolnego produktu. Aby zdecydować, czy kontrolowana partia produktów spełnia ustalone wymagania, wybiera się z niej próbkę. Na podstawie wyników kontroli próbki wyciąga się wnioski dotyczące całej partii. W tym przypadku bardzo ważne jest unikanie subiektywizmu przy tworzeniu próbki, tj. konieczne jest, aby każda jednostka produktu w kontrolowanej partii miała takie samo prawdopodobieństwo wybrania do próbki. W warunkach produkcyjnych dobór jednostek produktu do próbki zwykle nie odbywa się losowo, ale za pomocą specjalnych tablic liczb losowych lub za pomocą komputerowych czujników liczb losowych.

Podobne problemy z zapewnieniem obiektywności porównania pojawiają się przy porównywaniu różnych schematów organizacji produkcji, wynagrodzeń, podczas przetargów i konkursów, selekcji kandydatów na wolne stanowiska itp. Wszędzie potrzebujemy remisu lub podobnych procedur.

Niech przy organizacji turnieju według systemu olimpijskiego konieczne będzie wskazanie najsilniejszej i drugiej najsilniejszej drużyny (przegrany zostaje wyeliminowany). Załóżmy, że silniejszy zespół zawsze pokonuje słabszego. Wiadomo, że najsilniejszy zespół z pewnością zostanie mistrzem. Druga najsilniejsza drużyna dotrze do finału wtedy i tylko wtedy, gdy przed finałem nie rozegra żadnych meczów z przyszłym mistrzem. Jeżeli taki mecz będzie zaplanowany, to druga najsilniejsza drużyna nie dostanie się do finału. Ten, kto planuje turniej, może albo „wybić” z turnieju drugą najsilniejszą drużynę przed terminem, stawiając ją przeciwko liderowi już na pierwszym spotkaniu, albo zapewnić jej drugie miejsce, zapewniając spotkania ze słabszymi zespołami aż do samego końca. finał. Aby uniknąć subiektywizmu przeprowadza się losowanie. W przypadku turnieju, w którym bierze udział 8 drużyn, prawdopodobieństwo, że dwie najlepsze drużyny spotkają się w finale, wynosi 4/7. W związku z tym z prawdopodobieństwem 3/7 druga najsilniejsza drużyna opuści turniej wcześniej.

Wszelkie pomiary jednostek produktu (za pomocą suwmiarki, mikrometru, amperomierza itp.) zawierają błędy. Aby dowiedzieć się, czy występują błędy systematyczne, należy wykonać powtarzalne pomiary jednostki produktu, którego cechy są znane (na przykład próbka standardowa). Należy pamiętać, że oprócz błędu systematycznego występuje również błąd losowy.

Powstaje zatem pytanie, jak z wyników pomiarów dowiedzieć się, czy występuje błąd systematyczny. Jeśli tylko odnotujemy, czy błąd uzyskany podczas kolejnego pomiaru jest dodatni czy ujemny, to problem ten można sprowadzić do już rozważanego. Rzeczywiście, porównajmy pomiar do rzucenia monetą, błąd dodatni do utraty herbu, błąd ujemny do siatki (błąd zerowy przy wystarczającej liczbie działek skali prawie nigdy nie występuje). Wówczas sprawdzenie braku błędu systematycznego jest równoznaczne ze sprawdzeniem symetrii monety.

Zatem zadanie sprawdzenia braku błędu systematycznego sprowadza się do zadania sprawdzenia symetrii monety. Powyższe rozumowanie prowadzi do tzw. „kryterium znaku” w statystyce matematycznej.

W statystycznej regulacji procesów technologicznych, w oparciu o metody statystyki matematycznej, opracowywane są zasady i plany statystycznego sterowania procesami, mające na celu wczesne wykrywanie problemów w procesach technologicznych i podejmowanie działań korygujących je oraz zapobiegających uwalnianiu produktów, które nie spełniać ustalone wymagania. Działania te mają na celu zmniejszenie kosztów produkcji i strat wynikających z dostaw jednostek niskiej jakości. Podczas statystycznej kontroli akceptacji, w oparciu o metody statystyki matematycznej, opracowywane są plany kontroli jakości poprzez analizę próbek z partii produktów. Trudność polega na możliwości prawidłowego zbudowania probabilistyczno-statystycznych modeli podejmowania decyzji. W statystyce matematycznej opracowano w tym celu modele probabilistyczne i metody testowania hipotez, w szczególności hipotez, że udział wadliwych jednostek produkcji jest równy pewnej liczbie R 0 , Na przykład, R 0 = 0,23 (pamiętajcie słowa Strukowa z powieści A.N. Tołstoja).

Zadania oceniające. W szeregu sytuacji zarządczych, produkcyjnych, gospodarczych i gospodarki narodowej pojawiają się problemy innego rodzaju - problemy oceny cech i parametrów rozkładów prawdopodobieństwa.

Spójrzmy na przykład. Niech partia N lampy elektryczne Z tej partii próbka N lampy elektryczne Pojawia się wiele naturalnych pytań. Jak określić średnią żywotność lamp elektrycznych na podstawie wyników badań przykładowych elementów i z jaką dokładnością można ocenić tę charakterystykę? Jak zmieni się dokładność, jeśli weźmiemy większą próbkę? W jakiej liczbie godzin T można zagwarantować, że co najmniej 90% lamp elektrycznych będzie działać T i więcej godzin?

Załóżmy to przy badaniu wielkości próby N okazało się, że lampy elektryczne są uszkodzone X lampy elektryczne Jakie granice można określić dla liczby? D wadliwych żarówek w partii, pod kątem stopnia wadliwości D/ N i tak dalej.?

Lub też, analizując statystycznie dokładność i stabilność procesów technologicznych, należy ocenić takie wskaźniki jakości, jak średnia wartość kontrolowanego parametru i stopień jego rozproszenia w rozpatrywanym procesie. Zgodnie z teorią prawdopodobieństwa wskazane jest wykorzystywanie jej matematycznego oczekiwania jako średniej wartości zmiennej losowej, a rozproszenia, odchylenia standardowego lub współczynnika zmienności jako statystycznej charakterystyki rozrzutu. Pojawiają się pytania: jak ocenić te cechy statystyczne na podstawie przykładowych danych i z jaką dokładnością można to zrobić?

Podobnych przykładów można podać wiele. Ważne było tutaj pokazanie, w jaki sposób teoria prawdopodobieństwa i statystyka matematyczna mogą zostać wykorzystane w problemach inżynierskich i zarządczych.

Nowoczesna koncepcja statystyki matematycznej. Przez statystykę matematyczną rozumie się „dział matematyki poświęcony matematycznym metodom gromadzenia, systematyzowania, przetwarzania i interpretacji danych statystycznych, a także wykorzystywania ich do wniosków naukowych lub praktycznych”. Zasady i procedury statystyki matematycznej opierają się na teorii prawdopodobieństwa, która pozwala ocenić trafność i rzetelność wniosków uzyskanych w każdym zadaniu na podstawie dostępnego materiału statystycznego.” Dane statystyczne oznaczają w tym przypadku informację o liczbie obiektów w mniej lub bardziej rozbudowanym zbiorze, które posiadają określone cechy.

W zależności od rodzaju rozwiązywanych problemów statystykę matematyczną dzieli się zwykle na trzy sekcje: opis danych, estymacja i testowanie hipotez.

Ze względu na rodzaj przetwarzanych danych statystycznych statystykę matematyczną dzieli się na cztery obszary:

Statystyka jednoczynnikowa (statystyka zmiennych losowych), w której wynik obserwacji opisuje się liczbą rzeczywistą;

Wieloczynnikowa analiza statystyczna, gdzie wynik obserwacji obiektu opisuje się kilkoma liczbami (wektorami);

Statystyka procesów losowych i szeregów czasowych, gdzie wynik obserwacji jest funkcją;

Statystyka obiektów o charakterze nienumerycznym, w których wynik obserwacji ma charakter nienumeryczny, np. jest zbiorem (figurą geometryczną), uporządkowaniem lub uzyskany w wyniku pomiaru na podstawie na kryterium jakościowym.

Historycznie rzecz biorąc, jako pierwsze pojawiły się pewne obszary statystyki obiektów o charakterze nienumerycznym (w szczególności problemy szacowania proporcji defektów i testowania hipotez na jej temat) oraz statystyki jednowymiarowej. Aparat matematyczny jest dla nich prostszy, dlatego ich przykład jest zwykle używany do zademonstrowania podstawowych idei statystyki matematycznej.

Tylko te sposoby przetwarzania danych, tj. statystyka matematyczna opiera się na dowodach, które opierają się na probabilistycznych modelach odpowiednich rzeczywistych zjawisk i procesów. Mówimy o modelach zachowań konsumenckich, występowaniu zagrożeń, funkcjonowaniu urządzeń technologicznych, uzyskiwaniu wyników eksperymentów, przebiegu choroby itp. Model probabilistyczny zjawiska rzeczywistego należy uznać za skonstruowany, jeżeli rozważane wielkości i powiązania między nimi wyrażone są w kategoriach teorii prawdopodobieństwa. Zgodność z probabilistycznym modelem rzeczywistości, tj. jej adekwatność potwierdza się w szczególności za pomocą statystycznych metod testowania hipotez.

Nieprobabilistyczne metody przetwarzania danych mają charakter eksploracyjny, można je stosować jedynie we wstępnej analizie danych, gdyż nie pozwalają na ocenę trafności i wiarygodności wniosków uzyskanych na podstawie ograniczonego materiału statystycznego.

Metody probabilistyczne i statystyczne znajdują zastosowanie wszędzie tam, gdzie możliwe jest zbudowanie i uzasadnienie probabilistycznego modelu zjawiska lub procesu. Ich stosowanie jest obowiązkowe, gdy wnioski wyciągnięte z danych próby przenoszone są na całą populację (np. z próbki na całą partię produktów).

W określonych obszarach zastosowań stosuje się zarówno metody probabilistyczne, jak i statystyczne o zastosowaniu ogólnym i szczegółowym. Przykładowo w dziale zarządzania produkcją poświęconym statystycznym metodom zarządzania jakością produktu wykorzystuje się stosowaną statystykę matematyczną (w tym projektowanie eksperymentów). Za pomocą jej metod przeprowadza się analizę statystyczną dokładności i stabilności procesów technologicznych oraz statystyczną ocenę jakości. Metody szczegółowe obejmują metody statystycznej kontroli akceptacji jakości produktu, statystycznej regulacji procesów technologicznych, oceny i kontroli niezawodności itp.

Powszechnie stosowane są stosowane dyscypliny probabilistyczne i statystyczne, takie jak teoria niezawodności i teoria kolejkowania. Treść pierwszego z nich wynika jasno z nazwy, drugi dotyczy badania systemów takich jak centrala telefoniczna odbierająca połączenia w losowych momentach – wymagań abonentów wybierających numery w swoich aparatach telefonicznych. Czas obsługi tych wymagań, tj. czas trwania rozmów jest również modelowany za pomocą zmiennych losowych. Wielki wkład w rozwój tych dyscyplin wniósł członek korespondent Akademii Nauk ZSRR A.Ya. Khinchin (1894-1959), akademik Akademii Nauk Ukraińskiej SRR B.V. Gnedenko (1912-1995) i inni krajowi naukowcy.

Krótko o historii statystyki matematycznej. Statystyka matematyczna jako nauka zaczyna się od prac słynnego niemieckiego matematyka Carla Friedricha Gaussa (1777-1855), który w oparciu o teorię prawdopodobieństwa zbadał i uzasadnił stworzoną przez niego w 1795 roku metodę najmniejszych kwadratów ( w celu wyjaśnienia orbity małej planety Ceres). Jego imieniem często nazywa się jeden z najpopularniejszych rozkładów prawdopodobieństwa, normalny, a w teorii procesów losowych głównym przedmiotem badań są procesy Gaussa.

Pod koniec XIX wieku. - początek 20 wieku Największy wkład w statystykę matematyczną wnieśli badacze angielscy, przede wszystkim K. Pearson (1857-1936) i RA Fisher (1890-1962). W szczególności Pearson opracował test chi-kwadrat do testowania hipotez statystycznych, a Fisher opracował analizę wariancji, teorię projektu eksperymentu i metodę największej wiarygodności do szacowania parametrów.

W latach 30. XX w. Polak Jerzy Neumann (1894-1977) i Anglik E. Pearson opracowali ogólną teorię testowania hipotez statystycznych, a radzieccy matematycy Akademik A.N. Kołmogorow (1903–1987) i członek korespondent Akademii Nauk ZSRR N.V. Smirnow (1900–1966) położyli podwaliny pod statystykę nieparametryczną. W latach czterdziestych XX w. Rumun A. Wald (1902-1950) zbudował teorię sekwencyjnej analizy statystycznej.

Statystyka matematyczna rozwija się obecnie dynamicznie. Tym samym w ciągu ostatnich 40 lat można wyróżnić cztery zasadniczo nowe obszary badań:

Opracowywanie i wdrażanie matematycznych metod planowania eksperymentów;

Rozwój statystyki obiektów o charakterze nienumerycznym jako samodzielny kierunek stosowanej statystyki matematycznej;

Rozwój metod statystycznych odpornych na niewielkie odchylenia od stosowanego modelu probabilistycznego;

Powszechny rozwój prac nad tworzeniem pakietów oprogramowania komputerowego przeznaczonych do statystycznej analizy danych.

Metody probabilistyczno-statystyczne i optymalizacja. Idea optymalizacji przenika współczesną stosowaną statystykę matematyczną i inne metody statystyczne. Mianowicie metody planowania eksperymentów, statystyczna kontrola akceptacji, statystyczna regulacja procesów technologicznych itp. Z kolei sformułowania optymalizacyjne w teorii podejmowania decyzji, np. stosowana teoria optymalizacji jakości produktu i wymagań normowych, przewidują powszechne stosowanie probabilistycznych metod statystycznych, przede wszystkim stosowanej statystyki matematycznej.

W zarządzaniu produkcją, zwłaszcza przy optymalizacji jakości produktu i wymagań normowych, szczególnie istotne jest zastosowanie metod statystycznych na początkowym etapie cyklu życia produktu, tj. na etapie badań przygotowanie opracowań projektów eksperymentalnych (opracowanie obiecujących wymagań produktu, projekt wstępny, specyfikacje techniczne dotyczące opracowania projektu eksperymentalnego). Wynika to z ograniczonej ilości informacji dostępnych na początkowym etapie cyklu życia produktu oraz konieczności przewidywania możliwości technicznych i sytuacji ekonomicznej na przyszłość. Metody statystyczne należy stosować na wszystkich etapach rozwiązywania problemu optymalizacyjnego – przy skalowaniu zmiennych, opracowywaniu modeli matematycznych funkcjonowania produktów i systemów, przeprowadzaniu eksperymentów technicznych i ekonomicznych itp.

W zagadnieniach optymalizacji, w tym optymalizacji jakości produktu i wymagań normowych, wykorzystywane są wszystkie obszary statystyki. Mianowicie statystyka zmiennych losowych, wielowymiarowa analiza statystyczna, statystyka procesów losowych i szeregów czasowych, statystyka obiektów o charakterze nienumerycznym. Opracowano rekomendacje dotyczące wyboru metody statystycznej analizy konkretnych danych.