Интересный вопрос по статистике.

Сообщение №2951 от Genia 15 марта 2002 г. 09:51
Тема: Интересный вопрос по статистике.

Тут пара умных людей обсуждала вопросы по статистике.

A меня давно интересовал один вопрос по статистике.

Если у нас есть счётчик Гейгера. И мы далаем одно измерение: за N секунд незарегестрировав ни одной частицы. Что это измерение может сказать о фоне.

С одной стороны похоже информации никакой нет - ничего не зарегестрировано, с другой есть какая-то информация.

Что мы можем ожидать в следующие N секунд имея только это пустое измерение.

Спасибо если кто-то может сказать что-то интересное по этому поводу.


Отклики на это сообщение:

Уже можно построить доверительный интервал для параметра Пуассоновского распределения.


В тему... В монографии Боровкова "Математическая статистика" приводится пример построения доверительного интервала для дисперсии по 1 (одному!) наблюдению.


Spasibo. Interesno. Nado vzglianut' budet na knizhku pri sluchae.


> Уже можно построить доверительный интервал для параметра Пуассоновского распределения.

>
> В тему... В монографии Боровкова "Математическая статистика" приводится пример построения доверительного интервала для дисперсии по 1 (одному!) наблюдению.

А что такого особенного? функцию правдоподобия записать и оптимизировать можно, получишь МП оценку лямбды. Дальше берешь вторую производную от правдодоподия по лямбде, вычисляешь ее в МП оценке лямбды и (-.5) степень. Это и будет доверительный интервал.

ссылка


При неизвестном среднем.

> > В тему... В монографии Боровкова "Математическая статистика" приводится пример построения доверительного интервала для дисперсии по 1 (одному!) наблюдению.

> А что такого особенного? функцию правдоподобия записать и оптимизировать можно, получишь МП оценку лямбды. Дальше берешь вторую производную от правдодоподия по лямбде, вычисляешь ее в МП оценке лямбды и (-.5) степень. Это и будет доверительный интервал.

Кроме того, по ссылке строятся асимптотические ДИ, что как-то странно при выборке объема 1.


> При неизвестном среднем.

> > > В тему... В монографии Боровкова "Математическая статистика" приводится пример построения доверительного интервала для дисперсии по 1 (одному!) наблюдению.

Н-да?
Видимо, товарищ сильно лажанулся... Всё равно, что определить точку пересечения двух плоскостей.

Надо будет и впрямь взглянуть на этот бред.

> > А что такого особенного? функцию правдоподобия записать и оптимизировать можно, получишь МП оценку лямбды. Дальше берешь вторую производную от правдодоподия по лямбде, вычисляешь ее в МП оценке лямбды и (-.5) степень. Это и будет доверительный интервал.

> Кроме того, по ссылке строятся асимптотические ДИ, что как-то странно при выборке объема 1.

А в общем случае неасимптотических оценок построить нельзя.


После того, как взглянете, взять "товарищ сильно лажанулся" и "бред" назад..
> Н-да?
> Видимо, товарищ сильно лажанулся... Всё равно, что определить точку пересечения двух плоскостей.

> Надо будет и впрямь взглянуть на этот бред.

Монография 1997 г. - стр. 329, 1984 г. - 269, а то ведь не найдете.


> После того, как взглянете, взять "товарищ сильно лажанулся" и "бред" назад..
> > Н-да?
> > Видимо, товарищ сильно лажанулся... Всё равно, что определить точку пересечения двух плоскостей.

> > Надо будет и впрямь взглянуть на этот бред.

> Монография 1997 г. - стр. 329, 1984 г. - 269, а то ведь не найдете.

Обязательно. Однако, маловероятно.


> После того, как взглянете, взять "товарищ сильно лажанулся" и "бред" назад..
> > Н-да?
> > Видимо, товарищ сильно лажанулся... Всё равно, что определить точку пересечения двух плоскостей.

> > Надо будет и впрямь взглянуть на этот бред.

> Монография 1997 г. - стр. 329, 1984 г. - 269, а то ведь не найдете.

Оказывается, у меня может быть проблема с доступом к монографии - я не живу в России, а к моему скорому визиту ее могут не найти. Не потудитесь ли в кратце воспроизвести построение с указанной страницы, должна быть всего пара параграфов.


> Не потудитесь ли в кратце воспроизвести построение с указанной страницы, должна быть всего пара параграфов.

Цитирую примечание стр. 269 А.А.Боровков "Математическая статистика", 1984, М.: Наука, 472 с.
========================================
Интересно отметить, что вопреки первоначальным интуитивным представлениям по одному наблюдению x_1 из Ф(a,\sigma^2) возможно построить доверительный интервал для \sigma^2 при неизвестном a. Следующие рассуждения, показывающие это, были сообщены нам Л.Н.Большевым.
Выберем u так, чтобы Ф(1/u)-Ф(-1/u)=\varepsilon, где Ф(x) - ф.р. стандартного нормального закона. Тогда
P(\sigma>u|X_1|)=P(-\sigma/uP(-1/u-\alpha/\sigma<(X_1-\alpha)/\sigma<1/u-\alpha/\sigma)\leq Ф(1/u)-Ф(-1/u)=\varepsilon.
========================================
Итого, P(0<\sigma\leq u|X_1|)\geq 1-\varepsilon. Под знаком вероятности - доверительный интервал для \sigma.


> Не потудитесь ли в кратце воспроизвести построение с указанной страницы, должна быть всего пара параграфов.

Цитирую примечание стр. 269 А.А.Боровков "Математическая статистика", 1984, М.: Наука, 472 с.
========================================
Интересно отметить, что вопреки первоначальным интуитивным представлениям по одному наблюдению X_1 из Ф(a,\sigma^2) возможно построить доверительный интервал для \sigma^2 при неизвестном a. Следующие рассуждения, показывающие это, были сообщены нам Л.Н.Большевым.
Выберем u так, чтобы Ф(1/u)-Ф(-1/u)=\varepsilon, где Ф(x) - ф.р. стандартного нормального закона. Тогда
P(\sigma > u|X_1|)=P(-\sigma/u < X_1 < \sigma/u)= P(-1/u-\alpha/\sigma < (X_1-\alpha)/\sigma < 1/u-\alpha/\sigma) = Ф(-1/u-\alpha/\sigma)-Ф(1/u-\alpha/\sigma)\leq Ф(1/u)-Ф(-1/u)=\varepsilon.
========================================
Итого, P(0 < \sigma\leq u|X_1|)\geq 1-\varepsilon. Под знаком вероятности - доверительный интервал для \sigma.

Забываю про "меньше-больше", прошу извинения за повтор.



> А в общем случае неасимптотических оценок построить нельзя.

Ассимптотичность оценок нужна там, где нужно точное значение численного параметра.

В этом смысле ты прав - если нужно точное значение, неассимптотическую оценку построить нельзя.

Но если устраивает вероятностная оценка параметра - можно обойтись конечной выборкой.

Даже по одной реализации можно построить вероятностную оценку параметра: если отбросить априорное распределение, она дается функцией правдоподобия.

В рассматриваемом примере следует по предположительному распределению (например - Пуассоновскому) определить вероятность того, что в течение времени t не будет зарегистрировано ни одной частицы. Эта вероятность будет зависима от параметров исходного распределения. Если рассматривать ее как функцию данных параметров, то это и есть функция правдоподобия.

Если априорные предположения о значении параметров отсутствуют, можно получить вероятностную оценку перенормировкой функции правдоподобия по оцениваемым параметрам.

В результате мы не получим точной оценки, скажем, среднего потока частиц, но получим его вероятностную оценку. А это тоже немало. Например, уже можно обоснованно ответить на вопрос: "Какова вероятность того, что в следующий период t тоже не будет зарегистрировано ни одной частицы".


> > Не потудитесь ли в кратце воспроизвести построение с указанной страницы, должна быть всего пара параграфов.

> Цитирую примечание стр. 269 А.А.Боровков "Математическая статистика", 1984, М.: Наука, 472 с.
> ========================================
> Интересно отметить, что вопреки первоначальным интуитивным представлениям по одному наблюдению X_1 из Ф(a,\sigma^2) возможно построить доверительный интервал для \sigma^2 при неизвестном a. Следующие рассуждения, показывающие это, были сообщены нам Л.Н.Большевым.
> Выберем u так, чтобы Ф(1/u)-Ф(-1/u)=\varepsilon, где Ф(x) - ф.р. стандартного нормального закона. Тогда
> P(\sigma > u|X_1|)=P(-\sigma/u < X_1 < \sigma/u)= P(-1/u-\alpha/\sigma < (X_1-\alpha)/\sigma < 1/u-\alpha/\sigma) = Ф(-1/u-\alpha/\sigma)-Ф(1/u-\alpha/\sigma)\leq Ф(1/u)-Ф(-1/u)=\varepsilon.
> ========================================
> Итого, P(0 < \sigma\leq u|X_1|)\geq 1-\varepsilon. Под знаком вероятности - доверительный интервал для \sigma.

> Забываю про "меньше-больше", прошу извинения за повтор.

Это, конечно, не лажа и не бред, но и не доварительный интервал, а его оценка.



Опять ты всё свалил в одну кучу...

> Ассимптотичность оценок нужна там, где нужно точное значение численного параметра.

Нонсенс. Что такое "точное значение параметра"?

> Но если устраивает вероятностная оценка параметра - можно обойтись конечной выборкой.

В любом случае оценка параметра будет в рамках некоего интервала. Вопрос,как этот интервал посчитать?

> Даже по одной реализации можно построить вероятностную оценку параметра: если отбросить априорное распределение, она дается функцией правдоподобия.

Причем тут "априорное распределение"? АР - это из Бейесовского подхода. Это нечто иное нежели предположенная параметрическая модель (к примеру).

Правдоподобие плотности - это минус логарифм от условной плонтости совместного распределения параметров плотности, при данной выборке. Иди, оцени дисперсию нормального закона по единственному распределению!

> В рассматриваемом примере следует по предположительному распределению (например - Пуассоновскому) определить вероятность того, что в течение времени t не будет зарегистрировано ни одной частицы.

В Пуассоновском распределении "время" отсутствует. Ты путаешь с временем первого скачка Пуассоновского процесса.

>Эта вероятность будет зависима от параметров исходного распределения. Если рассматривать ее как функцию данных параметров, то это и есть функция правдоподобия.

Не вероятность, а плотность вероятности.

> Если априорные предположения о значении параметров отсутствуют, можно получить вероятностную оценку перенормировкой функции правдоподобия по оцениваемым параметрам.

Чего? При чем здесь "априорные предположения о значении параметров"?

> В результате мы не получим точной оценки, скажем, среднего потока частиц, но получим его вероятностную оценку. А это тоже немало. Например, уже можно обоснованно ответить на вопрос: "Какова вероятность того, что в следующий период t тоже не будет зарегистрировано ни одной частицы".

Еще раз. При использовании статистических методов ты ВСЕГДА получаешь только интервальную оценку, либо с выделенной точкой, либо нет.


> Что такое "точное значение параметра"?

В терминах ТВ? Значение, вероятнось отклонения от которого более, чем на ε, будет меньше, чем p. Причем для сколь угодно малого ε можно получить оценку со сколь угодно малым p.

> В любом случае оценка параметра будет в рамках некоего интервала. Вопрос,как этот интервал посчитать?

Вероятностную оценку приблизительно можно трактовать как "интервал", но, строго говоря, это - распределение.

> > Даже по одной реализации можно построить вероятностную оценку параметра: если отбросить априорное распределение, она дается функцией правдоподобия.

> Причем тут "априорное распределение"? АР - это из Бейесовского подхода. Это нечто иное нежели предположенная параметрическая модель (к примеру).

Я именно про байесов подход. Он отлично работает с параметрами распределений. Если у нас есть предположенное нормальное распределение с неизвестными параметрами M и D, оно записывается как инструментальная плотность вероятности p(x|M,D). (С точки зрения аргументов M и D - это функция правдоподобия)

Зная априорное распределение p(M,D), по формуле Байеса можно получить апостериорное p(M,D|x). "Отбросить априорное распределение" в данном контексте - значит положить его равномерным. Ну, да это тебе все известно. Привожу просто, чтобы уточнить, о чем речь.

> Иди, оцени дисперсию нормального закона по единственному распределению!

По единственной реализации случайной величины ты хотел сказать? В байесовом подходе - можно. Только оценка может получиться, например, в виде равномерного распределения от 0 до +∞.

> >Эта вероятность будет зависима от параметров исходного распределения. Если рассматривать ее как функцию данных параметров, то это и есть функция правдоподобия.

> Не вероятность, а плотность вероятности.

Я имею в виду не плотность, а вероятность того, что за время t не будет зарегистрировано ни одной частицы. Это число от 0 до 1.

> > Если априорные предположения о значении параметров отсутствуют, можно получить вероятностную оценку перенормировкой функции правдоподобия по оцениваемым параметрам.

> Чего? При чем здесь "априорные предположения о значении параметров"?

Байесов подход.

> > В результате мы не получим точной оценки, скажем, среднего потока частиц, но получим его вероятностную оценку. А это тоже немало. Например, уже можно обоснованно ответить на вопрос: "Какова вероятность того, что в следующий период t тоже не будет зарегистрировано ни одной частицы".

> Еще раз. При использовании статистических методов ты ВСЕГДА получаешь только интервальную оценку, либо с выделенной точкой, либо нет.

А при использовании Байесова подхода мы всегда получаем вероятностную оценку. Либо нормируемую, типа e−x на (0, +∞), либо формально ненормируемую, типа const на (−∞, +∞) или 1/x на (0, +∞). В ассимптотике эти оценки как правило сходятся к δ-функциям.


Мне такой термин не знаком.

> Это, конечно, не лажа и не бред, но и не доварительный интервал, а его оценка.

А вот определение доверительного интервала привести могу: в случае выборки из i.i.d.r.v.
(A(x1,...,xn,e)),B(x1,...,xn,e)) называется ДИ для параметра Q уровня доверия 1-e, если P(A\geq 1-e.
И "\geq" здесь, как правило, по существу: например, в случае выборок из дискретных распределений, вообще говоря, получить "=" вместо "\geq" невозможно.

Так что то, что процитировано выше, есть именно ДИ.


> Мне такой термин не знаком.

Странно. Числовые величины оцень часто "оценивают", в частности, сверху. Слово "мажоранта" вам знакомо?

> > Это, конечно, не лажа и не бред, но и не доварительный интервал, а его оценка.

> А вот определение доверительного интервала привести могу: в случае выборки из i.i.d.r.v.
> (A(x1,...,xn,e)),B(x1,...,xn,e)) называется ДИ для параметра Q уровня доверия 1-e, если P(A\geq 1-e.

Определение неверно. Вероятность должна быть строго равна 1-eps.

> И "\geq" здесь, как правило, по существу: например, в случае выборок из дискретных распределений, вообще говоря, получить "=" вместо "\geq" невозможно.

Перечитайте определение обобщенной квантили и вы увидете, как пропадают \geq'и. Если бы написанное вами имело место, обобщенную квантиль вообще нельзя было бы определить как однозначную функцию.

> Так что то, что процитировано выше, есть именно ДИ.

Ничего подобного.


понимают измеримую функцию выборки ;)

> Перечитайте определение обобщенной квантили и вы увидете, как пропадают \geq'и. Если бы написанное вами имело место, обобщенную квантиль вообще нельзя было бы определить как однозначную функцию.

То есть Вы хотите сказать, что для с.в. X из распределения Бернулли (утрирую :) с параметром 1/2 найдется "обобщенная квантиль" t такая, что вероятность P(X\geq t) равна 1/4 и P(X\leq t) тоже равна 1/4? Или для эмпирических вероятностей это возможно? ;)

> > Так что то, что процитировано выше, есть именно ДИ.

> Ничего подобного.

Может быть, Вы приведете, скажем, пример доверительного интервала уровня, ну скажем, 1/4, для параметра p распределения Бернулли (да любого дискретного) по выборке объема 1-2 (или любого конечного, как Вам будет удобно)? Чтоб Ваши красивые высказывания о смысле обобщенных квантилей не остались бездоказательными. И чтоб вероятность интервалу накрывать параметр была именно равна (не стремилась, не была "больше либо равна") 1/4.


> понимают измеримую функцию выборки ;)

Это про что? И если функцию выборки, то измеримую относительно чего?

> > Перечитайте определение обобщенной квантили и вы увидете, как пропадают \geq'и. Если бы написанное вами имело место, обобщенную квантиль вообще нельзя было бы определить как однозначную функцию.

> То есть Вы хотите сказать, что для с.в. X из распределения Бернулли (утрирую :) с параметром 1/2 найдется "обобщенная квантиль" t такая, что вероятность P(X\geq t) равна 1/4 и P(X\leq t) тоже равна 1/4?

Естественно. Причем для распределения Б достаточно простой квантили.

> Или для эмпирических вероятностей это возможно? ;)

Это возможно для любых мер вследствие монотонности меры. В случае строгой монотонности обобщенная квантиль совпадет со простой , поскольку не нужно избавляться от неоднозначности.

> > > Так что то, что процитировано выше, есть именно ДИ.

> > Ничего подобного.

> Может быть, Вы приведете, скажем, пример доверительного интервала уровня, ну скажем, 1/4, для параметра p распределения Бернулли (да любого дискретного) по выборке объема 1-2 (или любого конечного, как Вам будет удобно)? Чтоб Ваши красивые высказывания о смысле обобщенных квантилей не остались бездоказательными. И чтоб вероятность интервалу накрывать параметр была именно равна (не стремилась, не была "больше либо равна") 1/4.

Может вам еще Теорему Пифагора доказать для плоского случая?
Идите разбирайтесь с определениями функции распределения случайной величины и квантили (= функции, обратной функции распределеия, а то у меня возникают сомнения в том, что мы говорим на одном языке).
Потом поговорим.



> Это про что? И если функцию выборки, то измеримую относительно чего?

Естественно, относительно сигма-алгебры, порожденной выборкой ака набором i.i.d.r.v. Иначе говоря, такая функция, что прообраз любого борелевского множества принадлежит s(X1,...Xn). Если выборка, с Вашей точки зрения, - набор чисел (или если Вы не знаете, что такое сигма-алгебра, борелевское множество, случайная величина, i.i.d., прообраз и т.д.), то вопрос снимается, Вы остаетесь при своих заблуждениях и амбициях ;)


> > То есть Вы хотите сказать, что для с.в. X из распределения Бернулли (утрирую :) с параметром 1/2 найдется "обобщенная квантиль" t такая, что вероятность P(X\geq t) равна 1/4 и P(X\leq t) тоже равна 1/4?


> Естественно. Причем для распределения Б достаточно простой квантили.

На такую глупость я даже и не рассчитывала :))))). Может быть, укажете, чему это число t равно?

На всякий случай: P(X\geq t) принимает значения: 0 для t>1, 1/2 для 0
> Может вам еще Теорему Пифагора доказать для плоского случая?

Спасибо, это я могу. А Вы - не уверена :)

> Идите разбирайтесь с определениями функции распределения случайной величины и квантили (= функции, обратной функции распределеия, а то у меня возникают сомнения в том, что мы говорим на одном языке).
> Потом поговорим.

Уже почти ушла - мне хватает учить умных, Вас уже не удастся. Можете, в принципе, не отвечать - я уже насладилась Вашими ответами на все 100%.


>
> > Это про что? И если функцию выборки, то измеримую относительно чего?

> Естественно, относительно сигма-алгебры, порожденной выборкой ака набором i.i.d.r.v.

слишком много букв. есть лишние.
кстати, если у вас есть выборка, но нет вероятностного базиса - как быть? или статистики выборки не подпадают под данное вами определение?

>Иначе говоря, такая функция, что прообраз любого борелевского множества принадлежит s(X1,...Xn). Если выборка, с Вашей точки зрения, - набор чисел (или если Вы не знаете, что такое сигма-алгебра, борелевское множество, случайная величина, i.i.d., прообраз и т.д.), то вопрос снимается, Вы остаетесь при своих заблуждениях и амбициях ;)

борелевская алгебра? что-то припоминаю... это та, которая инудцируется топологией? кстати, не напомните ли, важен ли факт "хаусдорфности" топологии для данного построения, а то я запамятовал...

>
> > > То есть Вы хотите сказать, что для с.в. X из распределения Бернулли (утрирую :) с параметром 1/2 найдется "обобщенная квантиль" t такая, что вероятность P(X\geq t) равна 1/4 и P(X\leq t) тоже равна 1/4?

>
> > Естественно. Причем для распределения Б достаточно простой квантили.

> На такую глупость я даже и не рассчитывала :))))). Может быть, укажете, чему это число t равно?

нулю

> На всякий случай: P(X\geq t) принимает значения: 0 для t > 1, 1/2 для 0 < t\leq 1, и 1 для t\leq 0. Такие же значения (в обратном порядке) принимает P(X\leq t). Укажите мне тут 1/4, и я сниму шляпу :))))))))))))))))

Нарисуйте квантиль как ступенчатую функцию, непрерывную слева и посмотрите на то, что получится.

>
> > Может вам еще Теорему Пифагора доказать для плоского случая?

> Спасибо, это я могу. А Вы - не уверена :)
>
> > Идите разбирайтесь с определениями функции распределения случайной величины и квантили (= функции, обратной функции распределеия, а то у меня возникают сомнения в том, что мы говорим на одном языке).
> > Потом поговорим.

> Уже почти ушла - мне хватает учить умных, Вас уже не удастся. Можете, в принципе, не отвечать - я уже насладилась Вашими ответами на все 100%.

Пока не уйдете насовсем, будете публично опускаемы.

ps
кстати, по ведению. что, соображаловки не хватает поставить после знака меньше/больше пробел, чтобы знак не воспринимался как часть тега?


Вы правда считаете, что монотонная непрерывная слева функция, принимающая на отрицательной полупрямой нулевые значения и имеющая в нуле скачок в 1/2 где-то принимает значение 1/4?

И что таким утверждением можете публично опустить кого-то другого?

Давно я так не плакал.

Natalia Chernova взяла на себя труд подправить мою небрежность в интересном примере, которым я хотел позабавить аудиторию.

Мне показалось, что он имеет некоторое отношение к теме:
что кажущееся отсутствие информации может, таки, содержать конкретную числовую информацию.

Прошу прощения (в первую очередь у Genia) за увод дискуссии в сторону от изначального вопроса. Впрочем, был заказ на "сказать что-нибудь интересное". Кажется, это получилось.


> Вы правда считаете, что монотонная непрерывная слева функция, принимающая на отрицательной полупрямой нулевые значения и имеющая в нуле скачок в 1/2 где-то принимает значение 1/4?

(Здесь должно было быть нецензурное ругательство)

Вы, как и ваша новая подруга, видимо не знакомы с построением обобщенной квантили (ОК). ОК и придумана для того, чтобы для любого значения вероятности можно было получить прообраз. Штука эта - ОК - незаменима в аналитической теории меры и терии копулирующих функций ("копул").

Для распределения Бернулли ОК выглядит следующим образом:

ОК = f(x) := R -> R =
0, if x < = p,
1, if x > p

где p - параметр распределения. Итуиция: допустим вам нужно (для Монте Карло) генерить Бернуллевские случайные величины с заданным параметром р. Как вы это будете делать?

Напоследок, подставьте р = .5, х = .25, получите 0, и удалитесь с позором.

А то, что вы написали - это функция распределения, а не квантиль. Поэтому, ответ на ваш вопрос - отрицательный, что, тем не менее, нисколько не улучшает положения моей малопрофессиональной собеседницы.

> И что таким утверждением можете публично опустить кого-то другого?

> Давно я так не плакал.

Странно. Судя по всему, это должно быть вашей участью.

> Natalia Chernova взяла на себя труд подправить мою небрежность в интересном примере, которым я хотел позабавить аудиторию.

Она взяла на себя непосильный труд общаться со мной на дилетантском уровне. Это ее проблемы.


С самого рожденья я подозревал, что мне нечего делать в этом странном мире. Что ж, прочь сомненья. Ухожу!

Сообщите, пожалуйста, адрес, куда выслать статуэтку Оскара, отлитую из брильянтовых изумрудов с мандаринами в павлиньем соусе. Хватит ли на нее пригоршни медяков, вырученных от продажи последнего сюртука?

Наташа, я с тобой! Подожди! Да, мы с тобой не знаем цифр, но зато я умею играть на свирели. Мы будем питаться побегами ягеля и играть в крестики-нолики 2х2.


> С самого рожденья я подозревал, что мне нечего делать в этом странном мире. Что ж, прочь сомненья. Ухожу!

> Сообщите, пожалуйста, адрес, куда выслать статуэтку Оскара, отлитую из брильянтовых изумрудов с мандаринами в павлиньем соусе. Хватит ли на нее пригоршни медяков, вырученных от продажи последнего сюртука?

> Наташа, я с тобой! Подожди! Да, мы с тобой не знаем цифр, но зато я умею играть на свирели. Мы будем питаться побегами ягеля и играть в крестики-нолики 2х2.

"Слабые и неудачники должны погибнуть: первое положение нашей любви к человеку. И им должно ещё помочь в этом.

Что вреднее всякого порока? — Деятельное сострадание ко всем неудачникам и слабым...
"
(с)



> > выборкой ака набором i.i.d.r.v.

> слишком много букв. есть лишние.

Лишних нет. Которые же тут лишние?

> кстати, если у вас есть выборка, но нет вероятностного базиса - как быть? или статистики выборки не подпадают под данное вами определение?

Что значит "нет вероятностного базиса"? Если есть выборка - есть вероятностное пространство. Ему все равно, подозреваете Вы или нет о его существовании. "Статистика выборки" - тоже измеримая ("борелевская" - см. опр.) функция выборки.

> борелевская алгебра? что-то припоминаю... это та, которая инудцируется топологией? кстати, не напомните ли, важен ли факт "хаусдорфности" топологии для данного построения, а то я запамятовал...

Нет, не напомню ;) Речь идет о борелевской сигма-алгебре в R, и отделимость там выполнена автоматически.


> >
> > > > То есть Вы хотите сказать, что для с.в. X из распределения Бернулли (утрирую :) с параметром 1/2 найдется "обобщенная квантиль" t такая, что вероятность P(X\geq t) равна 1/4 и P(X\leq t) тоже равна 1/4?

> >
> > > Естественно. Причем для распределения Б достаточно простой квантили.

> > На такую глупость я даже и не рассчитывала :))))). Может быть, укажете, чему это число t равно?

> нулю

А Вы вообще читать умеете? Для указанного Вами числа 0
P(X\leq 0)=1/2 и P(X\geq 0)=1/2. Вы же обещали указать такое t, что эта вероятность равна 1/4 (не "больше либо равна", а равна!). Если возникнет желание напомнить, что такое квантиль - не трудитесь, мы не вполне о ней, а о знаке после вероятности - равно vs больше либо равно ;)


> > На всякий случай: P(X\geq t) принимает значения: 0 для t из (1,\infty), 1/2 для t из (0,1], и 1 для t\leq 0. Такие же значения (в обратном порядке) принимает P(X\leq t). Укажите мне тут 1/4, и я сниму шляпу :))))))))))))))))

> Нарисуйте квантиль как ступенчатую функцию, непрерывную слева и посмотрите на то, что получится.

Она фактически нарисована выше. Читать умеем? И 1/4 не равна ни при каких значениях аргумента. Напомнить, с чего начался разговор? С того, что Вы обязались для дискретного распределения получить множество, вероятность попасть в которое равна наперед заданному числу, а не "больше либо равна". ;)

> > Уже почти ушла - мне хватает учить умных, Вас уже не удастся. Можете, в принципе, не отвечать - я уже насладилась Вашими ответами на все 100%.

> Пока не уйдете насовсем, будете публично опускаемы.

Пока глупости говорите Вы, а не я. Меня, слава богу, читать научили. И мне вполне хватает удовольствия наблюдать, как человек привык жонглировать терминами, которых он не понимает, и определить не может ;)


Выписка из правил.

1. Этот форум предназначен для обсуждения вопросов математики.


>
Выписка из правил.

> 1. Этот форум предназначен для обсуждения вопросов математики.

"странник" начал первым


т.к. не различаете функцию и обратную к ней.

> Посмотрите другую подветку - я там эту квантиль написал. К несчастью, мне не захотелось писать ее Вам, вследствие полового признака вашего ника. Я сексист.

И не надо. Все, чем могу помочь - предложить (без меня ;) помедитировать над следующим очевидным фактом: если F(t)=P(X < t) - функция распределения, а F-1(x)=sup{t: F(t) < x} - обратная к ней (квантильное преобразование), то тождество F(F-1(x))=x при всех x из [0,1] имеет место лишь для непрерывных F, а отнюдь не для всех. В отличие от тождества F-1(F(t))=t при всех t из R, верного всегда. Иначе говоря, для распределения Бернулли хоть F-1(1/4) и равно 0, но F(0) все ж равно 0, а не 1/4 :)
Только не просите перевести буковки - в терминах "подбрасывания монетки" Вы этого так и не поняли, а по пятницам я не подаю.

2strannik: Да, в крестики-нолики! Только 1x1 - нам, любителям неравенства Крамера - Рао, крупнее нельзя :) А лучше заходи ко мне на форум, там студенты умные.


Физика в анимациях - Купить диск - Тесты по физике - Графики on-line

Реклама:
Rambler's Top100