Оптимизация обработки результатов измерений

Сообщение №8168 от - 06 июля 2003 г. 19:31
Тема: Оптимизация обработки результатов измерений


Отклики на это сообщение:

Оптимальная аппроксимация и Метод Наименьших Квадратов

Естественное требование к процедуре обработки данных - недопустимость
внесения систематической ошибки.
Иными словами, получаемое распределение отклонений должно быть как можно
более хаотичным, т.е. отвечать максимуму энтропии.
Из выражений для энтропии и плотности нормального распределения вытекает
конструктивное обоснование МНК для последнего, а погрешность представления
Ln(1+x) = x, где х - модуль максимальной относительной ошибки, - определяет
допустимость МНК для любого распределения.
Здесь принята справедливость отображения значений истинной функции
распределения отклонений нормированным отношением значений аппроксимирующей
и аппроксимируемой функций.
Сравнение результатов по МНК и Методу Максимума Энтропии для не слишком
точных данных позволяет оценить гипотезу нормального распределения.
Например, приближение параболой первой четверти синуса по ММЭ даёт
величины параметров распределения относительной погрешности, промежуточные
между получаемыми минимизацией сумм квадратов и модулей .


--------------------------------------------------------------------------------
Re: Оптимальная аппроксимация и Метод Наименьших Квадратов
Mikhail V. Sokolov

> Естественное требование к процедуре обработки данных - недопустимость
> внесения систематической ошибки.
> Иными словами, получаемое распределение отклонений должно быть как можно
> более хаотичным, т.е. отвечать максимуму энтропии.
> Из выражений для энтропии и плотности нормального распределения вытекает
> конструктивное обоснование МНК для последнего, а погрешность представления
> Ln(1+x) = x, где х - модуль максимальной относительной ошибки, - определяет
> допустимость МНК для любого распределения.
> Здесь принята справедливость отображения значений истинной функции
> распределения отклонений нормированным отношением значений аппроксимирующей
> и аппроксимируемой функций.
> Сравнение результатов по МНК и Методу Максимума Энтропии для не слишком
> точных данных позволяет оценить гипотезу нормального распределения.
> Например, приближение параболой первой четверти синуса по ММЭ даёт
> величины параметров распределения относительной погрешности, промежуточные
> между получаемыми минимизацией сумм квадратов и модулей.

Рассуждения интересные, но без соответствующих формул, к сожалению, не очень понятные. Например, требование отсутствия внесения систематической ошибки, на мой взгляд, не так очевидно связано с задачей максимизации энтропии. Нормальное распределение откуда-то появилось - видимо, как решение задачи на максимум энтропии при фиксированных матожидании и дисперсии. Откуда эти матожидания и дисперсия берутся? В общем, если возможно, подкрепите высказывания конкретными формулами, или ссылками на них - чтобы все окончательно прояснилось. Спасибо.


____________Увы, мне сказанное представляется достаточным, и я (дилетант) просто НЕ СПОСОБЕН Вам помочь. Простите! (Предпочёл бы ответить только на Ваш e-mail, но Вы не поставили соответствующую "птичку".)


> Естественное требование к процедуре обработки данных - недопустимость внесения систематической ошибки.

Что-то не понятно с самого начала, о чем идет речь.
Собственно ошибки и систематические составляющие этих ошибок могут содержаться в данных, т.е. собственно в измерениях.
Причем здесь обработка?


> Оптимальная аппроксимация и Метод Наименьших Квадратов

> Естественное требование к процедуре обработки данных - недопустимость
> внесения систематической ошибки.
> ...

Естественные (идеальные, ожидаемые) требование(я):
1. универсальный :-) алгоритм
2. равномерное приближение
3. простота и интуитивная ясность метода
4. ссылка на авторитет
...

:-))


> Собственно ошибки и систематические составляющие этих ошибок могут содержаться в данных, т.е. собственно в измерениях.
> Причем здесь обработка?
Обработка может усугубить, но не должна.


> > Естественное требование к процедуре обработки данных - недопустимость...

> Естественные (идеальные, ожидаемые) требование(я):
> 1. универсальный :-) алгоритм
> 2. равномерное приближение
> 3. простота и интуитивная ясность метода
> 4. ссылка на авторитет
> ...

М.б., достаточно п.3 + логика ?


Как вы понимаете «равномерность приближения»?


> Как вы понимаете «равномерность приближения»?
Увы - никак, как и многое другое. Могу ответить только по заявленному.


>> Как вы понимаете «равномерность приближения»?
> Увы - никак, как и многое другое. Могу ответить только по заявленному.

Хорошо!
Вы пишете (заявляете):
Естественное требование к процедуре обработки данных – недопустимость внесения систематической ошибки. Иными словами, получаемое распределение отклонений должно быть как можно более хаотичным, т.е. отвечать максимуму энтропии.

Тот же мой вопрос.
Какое отношение это имеет к обработке?
На данные, т.е. на измерения, вы не можете никак влиять.
Погрешности измерений являются характеристикой измерительного прибора, например системы GPS. То, что вы декларируете про ЭНТОРОПИЮ, - это ваши благие пожелания, не более!


> >> Как вы понимаете «равномерность приближения»?
> > Увы - никак, как и многое другое. Могу ответить только по заявленному.

> Хорошо!
> Вы пишете (заявляете):
> Естественное требование к процедуре обработки данных – недопустимость внесения систематической ошибки. Иными словами, получаемое распределение отклонений должно быть как можно более хаотичным, т.е. отвечать максимуму энтропии.

> Тот же мой вопрос.
> Какое отношение это имеет к обработке?
> На данные, т.е. на измерения, вы не можете никак влиять.
> Погрешности измерений являются характеристикой измерительного прибора, например системы GPS. То, что вы декларируете про ЭНТОРОПИЮ, - это ваши благие пожелания, не более!

Я отвечу :-)
Сразу оговорю, что на энторопию отвечу, ана ЭНТОРОПИЮ - ...
Учебников не пишу, но и не зарекаюсь :-))))))))))))))) Пока придерживаться канонов не буду.

1. равномерность, См. Шеннона (по аналогии сходимости частичных сумм разложения Фурье)
2. Влиять на данные можете и ещё как! Шагу не ступите в измерениях, если не сделаете предположения о гладкости (дифференцируемости) [например!] данных.


> > > Естественное требование к процедуре обработки данных - недопустимость...

> > Естественные (идеальные, ожидаемые) требование(я):
> > 1. универсальный :-) алгоритм
> > 2. равномерное приближение
> > 3. простота и интуитивная ясность метода
> > 4. ссылка на авторитет
> > ...

> М.б., достаточно п.3 + логика ?

Угу, точность + здравый смысл :-)))


> Я отвечу :-)
> Сразу оговорю, что на энторопию отвечу, ана ЭНТОРОПИЮ - ...
Не поняла юмора! Чего обиделись?
Была примитивная опечатка. Набивая текст, не смотрю на экран.
А опечатки вижу, когда текст уже ушел.
Энтропию набила заглавными, чтобы акцентировать автору, что он на ней зациклился.

> Учебников не пишу, но и не зарекаюсь :-)))))))))))))))
Это ваше личное дело.
К теме отношения не имеет.

> Пока придерживаться канонов не буду.
Разумно.

> 1. равномерность, См. Шеннона (по аналогии сходимости частичных сумм разложения Фурье)
Почему так сложно? Не проще бы просто дать определение?

> 2. Влиять на данные можете и ещё как!
Всё больше создается впечатление, что мы говорим о разных вещах.

> Шагу не ступите в измерениях, если не сделаете предположения о гладкости (дифференцируемости) [например!] данных.
Какя гладкость? Если измерения - это последовательность. В лучшем случае, числовая или векторная.
Да еще со «сбойными» значениями.


> > Я отвечу :-)
> > Сразу оговорю, что на энторопию отвечу, ана ЭНТОРОПИЮ - ...
> Не поняла юмора! Чего обиделись?
> Была примитивная опечатка. Набивая текст, не смотрю на экран.
> А опечатки вижу, когда текст уже ушел.
> Энтропию набила заглавными, чтобы акцентировать автору, что он на ней зациклился.

> > Учебников не пишу, но и не зарекаюсь :-)))))))))))))))
> Это ваше личное дело.
> К теме отношения не имеет.

> > Пока придерживаться канонов не буду.
> Разумно.

> > 1. равномерность, См. Шеннона (по аналогии сходимости частичных сумм разложения Фурье)
> Почему так сложно? Не проще бы просто дать определение?

> > 2. Влиять на данные можете и ещё как!
> Всё больше создается впечатление, что мы говорим о разных вещах.

> > Шагу не ступите в измерениях, если не сделаете предположения о гладкости (дифференцируемости) [например!] данных.
> Какя гладкость? Если измерения - это последовательность. В лучшем случае, числовая или векторная.
> Да еще со «сбойными» значениями.

Ana, форум - не личная переписка между нами.
Зачем отвечать на сверхскоростное "топтание клавы"?
Разумно?

И все же. Данные - не измерения.


> Ana, форум - не личная переписка между нами.
Вы - то здесь причем?
Я задала вопросы автору темы. Вы встряли. Внесли какое-то свое понимание применения МНК. Я хотела бы, чтобы именно автор ответил. Если вы в том же контексте понимаете МНК, как и автор, то извольте!

> Зачем отвечать на сверхскоростное "топтание клавы"?
Кто чего топтал. Уточните.

> Разумно?
О чем речь?.

> И все же. Данные - не измерения.
Конечно, если мы получаем данные, несущие информацию в виде набора байтов некоторого цифрового изображения, то это - не измерения. Но автор говорит о применении МНК. Чаще всего подразумевается обработка измерений.


Физика в анимациях - Купить диск - Тесты по физике - Графики on-line

Реклама:
Rambler's Top100