About Теория вероятностей
ВНИМАНИЕ! ВОЗМОЖНЫ ОШИБКИ!
Вопросы:
1. Понятие пространства элементарных событий. Примеры. Случайные события.
2. Классическое определение вероятности. Свойства вероятностей событий.
3. Аксиоматическое определение вероятности. Доказать следствия из определения.
4. Вывести формулу полной вероятности и формулу Байеса.
5. Вывести формулу Бернулли и следствия из неё. (Для вероятности числа успехов от k до m и для вероятности 0 успехов.)
6. Условная вероятность. Теорема умножения. Независимые события.
7. Доказать критерий независимости двух случайных событий.
8. Сформулировать определение дискретной случайной величины, обосновать вид ее функции распределения.
9. Функция распределения СВ и ее свойства.
10. Функция плотности вероятностей и её свойства.
11. Дать определение биномиального закона распределения и закона распределения Пуассона. Установить связь между ними. (Биномиальный стремится к Пуассону при n → ∞, np → λ.)
12. Случайные векторы. Функция распределения случайного вектора и её свойства.
13. Плотность многомерного случайного вектора и её свойства.
14. Функциональные преобразования СВ. Определение закона распределения функции по известному закону распределения аргумента. Рассмотреть частный случай: X2 = φ(X1), где φ монотонная функция.
15. Вывод формулы для композиции законов распределения.
16. Числовые характеристики случайного вектора.
17. Коэффициент корреляции и его свойства.
18. Условные законы распределения. Вывести выражение для условной плотности f(Y|X).
19. Математическое ожидание и его свойства.
20. Сформулировать ЗБЧ. Доказать теорему Чебышева.
21. Доказать теорему Бернулли (как следствие теоремы Чебышева).
22. Сформулировать центральную предельную теорему и вывести (как следствие) теорему Муавра-Лапласа.
23. Вывести неравенство Чебышева и сформулировать закон больших чисел в форме Чебышева.
24. Выборочная и эмпирическая функции распределения, их свойства.
25. Эмпирическая плотность распределения и её свойства.
26. Оценка параметров распределения. Точечные оценки. Требования, предъявляемые к точечным оценкам.
27. Показать, что X является несмещенной, состоятельной и эффективной оценкой в классе всех линейных оценок.
28. Доказать, что 1/n * sum (X_i − Xср)2 является смещенной оценкой дисперсии.
29. Метод максимального правдоподобия.
30. Найти методом максимального правдоподобия оценку параметров нормального распределения.
31. Найти методом максимального правдоподобия оценку параметра экспоненциального распределения.
32. Найти методом максимального правдоподобия оценку параметра биномиального распределения.
33. Определение доверительного интервала (ДИ). Его вероятностный смысл.
34. Построить ДИ для мат. ожидания нормально распределённой СВ при известном с.к.о.
35. Построить ДИ для мат. ожидания нормально распределённой СВ при неизвестном с.к.о.
36. Построение ДИ для мат. ожидания при неизвестной дисперсии.
37. Вывести выражение для ДИ для дисперсии и с.к.о. нормально распределённой СВ.
38. Построение оптимального критерия для мат. ожидания нормально распределённой генеральной совокупности при известной дисперсии для случая двух простых гипотез.
39. Проверка статистических гипотез. Ошибки 1-го и 2-го рода. Понятие критерия проверки гипотез. Критическая область, уровень значимости.
40. Правило Неймана-Пирсона построения наилучшей критической области. Привести пример.
41. Критерий проверки гипотезы о равенстве двух средних НГС при известных с.к.о.
42. Проверка гипотезы о величине дисперсии нормальной генеральной совокупности (НГС), о равенстве двух дисперсий НГС.
43. Понятие критерия согласия. Критерий согласия Пирсона и его применение.
44. Задача сглаживания экспериментальной зависимости. Метод наименьших квадратов оценки параметров линейной модели.
Сочетания и размещения
Статистики и критические множества
В практике при нахождении условных вероятностей идет деление на сигма квадрат (требуется просто сигма) - ошибка. CAUTION Possible errors!
Questions:
1. The concept of the space of elementary events. Examples. Random events.
2. The classical definition of probability. Properties probabilities of events.
3. The axiomatic definition of probability. Prove the corollary of the definition.
4. Derive the formula of total probability and Bayes' formula.
5. Derive the formula of Bernoulli and consequences of it. (For the probability of success of k to m 0 and the probability of success.)
6. The conditional probability. Multiplication theorem. Independent events.
7. Prove the criterion of independence of two random events.
8. Formulate a definition of a discrete random variable, to substantiate its view of the distribution function.
9. The distribution function of NE and its properties.
10. The probability density function and its properties.
11. Define the binomial distribution and a Poisson distribution. Establish a link between them. (Binomial tends to Poisson when n → ∞, np → λ.)
12. Random vectors. The distribution function of the random vector and its properties.
13. The density of the multivariate random vector and its properties.
14. Functional transformations ST. Determination of the distribution of the functions of the known distribution law argument. Consider a special case: X2 = φ (X1), where φ monotonic function.
15. Conclusion of the formula for the composition of a distribution.
16. Numerical characteristics of random vector.
17. The correlation coefficient and its properties.
18. Conditional distributions. Derive an expression for the conditional density f (Y | X).
19. Expectation and its properties.
20. Formulate the LLN. To prove the theorem of Chebyshev.
21. Prove Theorem Bernoulli (as a consequence of Chebyshev's theorem).
22. Formulate the central limit theorem and deduce (as a consequence) Moivre-Laplace theorem.
23. Print the Chebyshev inequality and formulate the law of large numbers in the form of Chebyshev.
24. Custom and empirical distribution functions and their properties.
25. The empirical distribution density and its properties.
26. Estimation of the parameters of the distribution. Point estimates. Requirements for the point estimate.
27. Show that X is an unbiased, consistent and efficient estimates in the class of linear estimators.
28. Prove that 1 / n * sum (X_i - xcp) 2 is a biased estimator of the variance.
29. The method of maximum likelihood.
30. Find the maximum likelihood estimation of the parameters of the normal distribution.
31. Find the maximum likelihood estimate of the parameter of the exponential distribution.
32. Find the maximum likelihood estimate of the parameter of the binomial distribution.
33. Determination of the confidence interval (CI). Its probabilistic sense.
34. Build a CI for the mat. expectations normally distributed with known SW rms
35. Build a CI for the mat. expectations normally distributed with unknown NE rms
36. Building a CI for the mat. waiting for the unknown variance.
37. Derive an expression for the CI for the dispersion and rms normally distributed ST.
38. An optimal criterion for mat. expectations normally distributed general population with known variance for the case of two simple hypotheses.
39. Testing statistical hypotheses. Errors of the 1st and 2nd kind. The notion of testing hypotheses. Critical region, the level of significance.
40. Rule Neyman-Pearson constructing the best critical region. Give an example.
41. Criteria for testing hypotheses about the equality of the two middle NHS under certain rms
42. Testing hypotheses about the variance of normal general population (NGS) and the equality of two variances NHS.
43. The notion of goodness of fit. Pearson's chi-squared test and its application.
44. The task of smoothing the experimental dependence. The method of least squares parameter estimation of a linear model.
Combination and placement
Statistics and critical sets
In practice, when the conditional probabilities are dividing by the square of sigma (sigma requires a) - error.
Download and install
Теория вероятностей version 1.0 on your
Android device!
Downloaded 1,000+ times, content rating: Not rated
Android package:
com.lukaville.cribsheet.terver, download Теория вероятностей.apk