Свойства информации

Сообщение №36435 от Дил 04 мая 2005 г. 15:15
Тема: Свойства информации

До начала разговора уже добраться невозможно, а вопрос интересный. Как соотносится реальный мир, реальные физические системы и информация.

В продолжение:
http://physics.nad.ru/newboard/messages/36430.html

http://physics.nad.ru/newboard/messages/36428.html

> Я могу дать другое определение.
Настаиваю, что нельзя дать определения, можно (и нужно) только описание.

> Информация может быть получена только в процессе квантового измерения. Т.о. информация есть понятие подчиненное аппарату КМ.
Понятие "информация" должно быть введено до построения арифметики, физики и т.д. Уже потом на основании развития КМ можно (и нужно) уточнять свойства понятия.

> В этом смысле любые данные полученные при наблюдении и записанные в памяти (запись в памяти, скоррелированная с состоянием измеренного объекта и есть символ. Например, при измерении координаты частицы вы рассеяли на ней фотон, потом поймали его линзой и он оставил пятнышко на фотопластинке. Пятнышко есть символ, несущий информацию о координате частицы, фотопластинка -- ячейка памяти)
Пятнышко не символ. Это примитивное (может быть и очень важное) отражение химической реакции. Информация возникает тогда, когда гуманоид строит некую модель на основе простейших элементов, отражаемых в его сознании.
Стало "свежо" - гуманоид строит (или использует ранее построенную) модель, в рамках которой делает выводы и принимает решения.



Отклики на это сообщение:

> ...Информация возникает тогда, когда гуманоид строит некую модель на основе простейших элементов, отражаемых в его сознании.

Я уже задавал вопрос по этому поводу, да все куда-то выкинули...

Цепочка ДНК несет в себе информацию?
Но ДНК есть не только у гуманоида, а даже у амебы!

Так при чем тут сознание?



> До начала разговора уже добраться невозможно, а вопрос интересный. Как соотносится реальный мир, реальные физические системы и информация.

> В продолжение:
> http://physics.nad.ru/newboard/messages/36430.html

> http://physics.nad.ru/newboard/messages/36428.html

> > Я могу дать другое определение.
> Настаиваю, что нельзя дать определения, можно (и нужно) только описание.

> > Информация может быть получена только в процессе квантового измерения. Т.о. информация есть понятие подчиненное аппарату КМ.
> Понятие "информация" должно быть введено до построения арифметики, физики и т.д. Уже потом на основании развития КМ можно (и нужно) уточнять свойства понятия.
Вы хотите чисто математическую теорию информации. Но существующая теория опирается на теорию вероятности, которая в свою очередь базируется на теории меры. Т.е. информация далеко не первичное понятие.
С другой стороны, то, что я предлагаю, основано на КМ. Как вы считатете, понятие материальной точки и степени свободы в гамильтоновой системе являются ли достаточно первичными? Если нет, то я в затруднении. Я физикой занимаюсь и для меня гамильтонова классическая механика и КМ являются фундаментальной основой для посторения всех физических моделей. И классическая и квантовая механика представляют собой хорошо построенные математические теории с вполне разработанной аксиоматикой. Не хуже эвклидовой геометрии.

> > В этом смысле любые данные полученные при наблюдении и записанные в памяти (запись в памяти, скоррелированная с состоянием измеренного объекта и есть символ. Например, при измерении координаты частицы вы рассеяли на ней фотон, потом поймали его линзой и он оставил пятнышко на фотопластинке. Пятнышко есть символ, несущий информацию о координате частицы, фотопластинка -- ячейка памяти)
> Пятнышко не символ. Это примитивное (может быть и очень важное) отражение химической реакции. Информация возникает тогда, когда гуманоид строит некую модель на основе простейших элементов, отражаемых в его сознании.
> Стало "свежо" - гуманоид строит (или использует ранее построенную) модель, в рамках которой делает выводы и принимает решения.

В свете того, что я сказал, пятнышко есть есть набор степеней свободы (в идеале -- одна степень свободы, т.е. квантовая система, находящаяся в определенном состоянии). В нашем мире нет ничего кроме взаимодействующих частиц, атомов.
Я полагаю, что символ абстрактного языка, написанный на бумаге, как-то возбуждает какую-то систему в мозге. Эта система приходит в некоторое состояние, которое соответствует этому символу.
Еще раз повторюсь. Все что я здесь писал, относится к физической теории информации, а не к абстрактно-математической.


> Цепочка ДНК несет в себе информацию?

Так и хочется ответить - да, конечно. Часто это повторяют, и определенный смысл в этом есть.

> Но ДНК есть не только у гуманоида, а даже у амебы!

И ДНК позволяет природе тиражировать клетки и даже сложные организмы, вплоть до человека. Факт. Но так же и кристаллическая решетка определяется некоторыми свойствами атомов или молекул. Эти свойства тоже информация? Продвигаясь далее рассмотрим одиночное тело, его скорость, импульс - тоже информация?

> Так при чем тут сознание?

Скорость и прочие физические величины мы выдумали как некоторое отражение реальных свойств природных объектов, это отражение неполно. И главное, наверное, в том, что кроме самих физических (химических и пр.) величин гуманоид использует еще и отношения между величинами. В конечном итоге использует язык, с помощью которого описывает модели. А наличие языка подразумевает обмен информацией между субъектами этим языком владеющими.

Цепочка ДНК несет в себе информацию в той степени, в которой гуманоид сумел перевести замеченные закономерности на человеческий язык.


> Вы хотите чисто математическую теорию информации. Но существующая теория опирается на теорию вероятности, которая в свою очередь базируется на теории меры. Т.е. информация далеко не первичное понятие.

Нет, чисто математическую сейчас не хочу, более того не говорю и о теории как о целостной системе суждений.

> С другой стороны, то, что я предлагаю, основано на КМ. Как вы считатете, понятие материальной точки и степени свободы в гамильтоновой системе являются ли достаточно первичными?

Да.

> Если нет, то я в затруднении. Я физикой занимаюсь и для меня гамильтонова классическая механика и КМ являются фундаментальной основой для посторения всех физических моделей. И классическая и квантовая механика представляют собой хорошо построенные математические теории с вполне разработанной аксиоматикой. Не хуже эвклидовой геометрии.

Да, не хуже.

> В свете того, что я сказал, пятнышко есть есть набор степеней свободы (в идеале -- одна степень свободы, т.е. квантовая система, находящаяся в определенном состоянии).

Но принципиально важно заведомо знать, где это пятнышко что обозначает. Заведомо надо заключить соглашение.

> В нашем мире нет ничего кроме взаимодействующих частиц, атомов.

Да из того, в чем мы продвинулись, разум, интеллект еще не исследован.

> Я полагаю, что символ абстрактного языка, написанный на бумаге, как-то возбуждает какую-то систему в мозге. Эта система приходит в некоторое состояние, которое соответствует этому символу.

Да, но прежде какая-то система в мозге из-за некоторого своего состояния сформировала образ и заставила человека обозначить этот образ символом.

> Еще раз повторюсь. Все что я здесь писал, относится к физической теории информации, а не к абстрактно-математической.

Но согласитесь, что между этими теориями должна быть очень тесная связь.


> > В свете того, что я сказал, пятнышко есть есть набор степеней свободы (в идеале -- одна степень свободы, т.е. квантовая система, находящаяся в определенном состоянии).

> Но принципиально важно заведомо знать, где это пятнышко что обозначает. Заведомо надо заключить соглашение.
Разумеется. "соглажшение" имеется. Человек специально взял линзу и поместил фотопластнку в фокальную плоскость. Он знал что делал и ожидал некоторых результатов. Поэтому для него это пятнышко, а вернее его координаты есть символ, который имеет вполне точное значение.

> > В нашем мире нет ничего кроме взаимодействующих частиц, атомов.
> Да из того, в чем мы продвинулись, разум, интеллект еще не исследован.
Я в своих рассуждениях отталкиваюсь от предположения, что все фундаментальные вещи типа атомов и фотонов мы знаем и их достаточно для построения сложных вещей типа человеческого мозга. Я декларирую это как отправную точку своих рассуждений.

> > Я полагаю, что символ абстрактного языка, написанный на бумаге, как-то возбуждает какую-то систему в мозге. Эта система приходит в некоторое состояние, которое соответствует этому символу.

> Да, но прежде какая-то система в мозге из-за некоторого своего состояния сформировала образ и заставила человека обозначить этот образ символом.
А это совсем другой вопрос. Описать процесс получения знаний, т.е. не просто получения простой информации, а создание общих абстрактых моделей типа F=ma, которые работают и для яблока и для груши и для луны, это было бы круто. Я давно над этим думаю, и даже придумал некую максимально упрощенную модель, но пока у меня не получается ничего впечатляющего :(


> > Еще раз повторюсь. Все что я здесь писал, относится к физической теории информации, а не к абстрактно-математической.
> Но согласитесь, что между этими теориями должна быть очень тесная связь.

Возможно это одно и то же. Просто вы сказали, что информация есть исходное понятие типа целого числа, что вызвало у меня попытку разграничить абстрактно-математический подход и физический.


Информация - это связи, установленные между воздействием и реакцией на него.

Информация - это...


> Информация - это связи, установленные между воздействием и реакцией на него.

Отчасти согласен, но не совсем. Системы связи - есть средство передачи информации. Это в любом учебнике написано. Информация - это состояние систем, между которыми пршёл сигнал. Но сигнал - это тоже информация. В вашем примере Вы забыли о том, что наступающие и отступающие части должны были заранее обменяться информацией, как они будут себя вести по сигналу. Таким образом сигнал на движение, это лишь заключительная часть информационного послания вида "По данному сигналу часть номер 1 отступает, часть номер 2 наступает. А теперь - внимание.... Сигнал!" То же относится и к шифрам. Так что любое информационное сообщение - То же верно и для квантовой механики и для шифровальщиков штаба.


> > Информация - это связи, установленные между воздействием и реакцией на него.

> Отчасти согласен, но не совсем. Системы связи - есть средство передачи информации. Это в любом учебнике написано. Информация - это состояние систем, между которыми пршёл сигнал. Но сигнал - это тоже информация. В вашем примере Вы забыли о том, что наступающие и отступающие части должны были заранее обменяться информацией, как они будут себя вести по сигналу. Таким образом сигнал на движение, это лишь заключительная часть информационного послания вида "По данному сигналу часть номер 1 отступает, часть номер 2 наступает. А теперь - внимание.... Сигнал!" То же относится и к шифрам. Так что любое информационное сообщение - То же верно и для квантовой механики и для шифровальщиков штаба.
Простите, опечатался. Следует читать "Так что любое информационное сообщение приблизительно равно дельте информации о состоянии систем до взаимодействия."


>1.Но так же и кристаллическая решетка определяется некоторыми свойствами атомов или молекул. Эти свойства тоже информация? Продвигаясь далее рассмотрим одиночное тело, его скорость, импульс - тоже информация?

> 2.Цепочка ДНК несет в себе информацию в той степени, в которой гуманоид сумел перевести замеченные закономерности на человеческий язык.

1. А что же это, по-Вашему?
2. Не вся информация предназначена гуманоидам.


"Приблизительно", а не "точно", потому что за время передачи взаимодействия системы могли видоизменяться от внутренних причин, не вошедших в послание.


> Информация - это связи, установленные между воздействием и реакцией на него.

как я вам завидую. Вам уже все ясно.

Кстати, это забавно: http://timer.narod.ru/inform.html
Задача для студентов: разобрать сюжет "Эйнштейн неправ".


> > Информация - это связи, установленные между воздействием и реакцией на него.

> Отчасти согласен, но не совсем. Системы связи - есть средство передачи информации.

Системы связи - это средство передачи сигнала.

> Это в любом учебнике написано.

Мало ли что написано в учебнике. Раньше в учебниках писали, что Земля плоская.

> Информация - это состояние систем, между которыми пршёл сигнал. Но сигнал - это тоже информация. В вашем примере Вы забыли о том, что наступающие и отступающие части должны были заранее обменяться информацией, как они будут себя вести по сигналу.

Нет не забыл. На сайте сказано, что подразделениям была поставлена задача, т.е. была установлена связь между сигналом и реакцией на него.

> Таким образом сигнал на движение, это лишь заключительная часть информационного послания вида "По данному сигналу часть номер 1 отступает, часть номер 2 наступает. А теперь - внимание.... Сигнал!" То же относится и к шифрам. Так что любое информационное сообщение - То же верно и для квантовой механики и для шифровальщиков штаба.


> > Информация - это связи, установленные между воздействием и реакцией на него.

> как я вам завидую. Вам уже все ясно.

> Кстати, это забавно: http://timer.narod.ru/inform.html
> Задача для студентов: разобрать сюжет "Эйнштейн неправ".

И задачи, которые там есть, тоже.


Предлагаю, для начала, сформулировать

О П Р Е Д Е Л Е Н И Е И Н Ф О Р М А Ц И И
--------------------------------------------

Думаю, что уже в этом будет много споров:)
А уж потом... перейти к ее свойствам.

Итак, кто первый?


> > > Информация - это связи, установленные между воздействием и реакцией на него.

> > как я вам завидую. Вам уже все ясно.

> > Кстати, это забавно: http://timer.narod.ru/inform.html
> > Задача для студентов: разобрать сюжет "Эйнштейн неправ".

> И задачи, которые там есть, тоже.
а задачи -- вариации на ту же тему. В основном тексте уже приведено решение.
Задача в том, что бы грамотно разобрать этот сюжет с помощью СТО.


> Предлагаю, для начала, сформулировать

> О П Р Е Д Е Л Е Н И Е И Н Ф О Р М А Ц И И
> --------------------------------------------

> Думаю, что уже в этом будет много споров:)
> А уж потом... перейти к ее свойствам.

> Итак, кто первый?
я уже давал
Информацией называется некоторый набор символов (запись на некотором материальном носителе), для которого существует в природе хотябы одно устройство (человек, машина, прибор) для которго этот набор может быть использован для достижения данной цели. Никакого требования на то, что данный прибор может быть тиражирован не делается.
(см также http://physics.nad.ru/newboard/messages/36430.html)
Расшифрую, что такое материальный носитель и символ в данном контексте.
Материальный носитель -- некоторая квантовая система. Символ есть некоторое состояние этой системы, не обязательно стационарное и не любое, а такое, которое может быть "понято" устройством (тоже квантовым объектом). От наборе таких систем можно говорить как о ячейках памяти, в которых записаны символы. Слово "понято" означает здесь: устройство может провзаимодействовать с памятью и результатом взаимодействия будет достижение определенной цели.
Цель определяется "свыше".

Пример.
В пространстве летает муха. На мухе расселся фотон и попал серез линзу на фотопластинку. Теперь фотопластинка является ячейкой памяти, в которой записан символ -- координата мухи.
Пусть теперь есть устройство, которое может считать содержание этой ячейки и использовать результат считывания (измерения) для ловли мухи. В этом случае это действительно ячейка памяти, в которой записана некая информация.
Если такого устройства нет, тогда нет никакой информации, а есть просто фотопластинка, на которую откуда-то упал фотон. Осмысленность состояния пластинки придает только априорное знание, что это координата мухи.

Если это определение информации устраивает, то дальше можно разговаривать о передаче записанной информации по каналу связи. Все по Шеннону или по теории квантовых каналов связи.


> Информацией называется некоторый набор символов (запись на некотором материальном носителе), для которого существует в природе хотябы одно устройство (человек, машина, прибор) для которго этот набор может быть использован для достижения данной цели.

1) Хотелось бы покороче и попроще;
2) Для достижения какой "данной цели"?
3) Уничтожение единственного декодера, по-Вашему, уничтожает закодированную информацию?

Тогда Вы открыли способ мгновенного уничтожения информации на расстоянии с бесконечно большой скоростью "распространения сигнала уничтожения" :-)
Пусть кодер находится на Земле, а декодер - на Альфа Центавра. На земле с помощью кодера записана великая истина и хранится в зашифрованном виде. Ключ находится только на Альфа Центавра. Тогда уничтожение декодера МГНОВЕННО уничтожит информацию на Земле! А через многие годы упорного труда злые хакеры
подберут-таки ключ и получат уничтоженную информацию. Она ВНОВЬ СОЗДАСТСЯ???

Не нравится мне чей-то такая теория:) Думаю, что информация не исчезнет с уничтожением получателя, а просто станет "временно недоступной".

> Материальный носитель -- некоторая квантовая система. Символ есть некоторое состояние этой системы, не обязательно стационарное и не любое, а такое, которое может быть "понято" устройством (тоже квантовым объектом). От наборе таких систем можно говорить как о ячейках памяти, в которых записаны символы. Слово "понято" означает здесь: устройство может провзаимодействовать с памятью и результатом взаимодействия будет достижение определенной цели.

Вы рассматриваете таким образом только часть информации. Помимо ДИСКРЕТНОЙ, квантованной, существует непрерывная, аналоговая информация. Вспомните, например, аналоговые вычислительные машины... Я понимаю, что если вдаваться в тонкости квантового уровня, наверное, всякая аналоговая величина в итоге квантуется на огромное кол-во дискретных значений. Но в данном контексте это не принципиально! Вполне можно представить себе абстрактные аналоговые системы с бесконечным количеством состояний, являющиеся носителями информации.
А как быть, например, с числом Пи? Пи несомненно несет информацию о соотношении сами знаете чего с чем. Но попробуйте его записать в виде числового значения...

> Пример.
> В пространстве летает муха. На мухе расселся фотон и попал серез линзу на фотопластинку. Теперь фотопластинка является ячейкой памяти, в которой записан символ -- координата мухи.
> Пусть теперь есть устройство, которое может считать содержание этой ячейки и использовать результат считывания (измерения) для ловли мухи. В этом случае это действительно ячейка памяти, в которой записана некая информация.
> Если такого устройства нет, тогда нет никакой информации, а есть просто фотопластинка, на которую откуда-то упал фотон. Осмысленность состояния пластинки придает только априорное знание, что это координата мухи.

Не согласен. Вы описали прибор для ПОЛУЧЕНИЯ информации о направлении приходящих фотонов. Получения, а не создания ее из ничего!
Информация о координате мухи СОДЕРЖИТСЯ в отраженном от нее свете. И она содержалась в нем всегда, даже до изобретения Вами такого прибора. Иначе, каким образом этот прибор был бы изобретен?

Свет далеких звезд несет в себе информацию об их строении, составе, положении, температуре и т.д. Неужели Вы будете утверждать, что до появления человека свет звезд не содержал в себе этой информации ?!


> > Информацией называется некоторый набор символов (запись на некотором материальном носителе), для которого существует в природе хотябы одно устройство (человек, машина, прибор) для которго этот набор может быть использован для достижения данной цели.

> 1) Хотелось бы покороче и попроще;
вам и флаг в руки :)
> 2) Для достижения какой "данной цели"?
я сказал, что цель определяется заранее. Как формируются цели, увы, ясного представления не имею.
> 3) Уничтожение единственного декодера, по-Вашему, уничтожает закодированную информацию?
Коротко -- да.

> Тогда Вы открыли способ мгновенного уничтожения информации на расстоянии с бесконечно большой скоростью "распространения сигнала уничтожения" :-)
> Пусть кодер находится на Земле, а декодер - на Альфа Центавра. На земле с помощью кодера записана великая истина и хранится в зашифрованном виде. Ключ находится только на Альфа Центавра. Тогда уничтожение декодера МГНОВЕННО уничтожит информацию на Земле! А через многие годы упорного труда злые хакеры
> подберут-таки ключ и получат уничтоженную информацию. Она ВНОВЬ СОЗДАСТСЯ???
Нет.
Я сошлюсь на известный факт о кодировании. Если информация закодирована плотно, то потеря ключа фатальна. Набор символов, записан на бумаге станет просто случайным набором пятен, белым шумом. Расшифровать невозможно. Можно попытаться догадаться. Нпример предположить, что суперважная истина написана на русском языке и касается фундаментальности брахистохроны. Тогда можно попытаться разыскать в тексте корреляции с именем известного автора, ну так далее. Или предположить, что истина о том, как хорошо житьпри коммунизме. Из этого тоже можно что-либо получить. Нет только гарантии, что расшифрованное сообщение имеено то, что было зашифрованным. Из шума можно извлечь много версий.

> Не нравится мне чей-то такая теория:) Думаю, что информация не исчезнет с уничтожением получателя, а просто станет "временно недоступной".
Нравится/не нравится, это не то, что важно. Мне, например, КЭД перестала нравится последнее время. Хотя в свое время я был в восторге от нее.
Насчет "станет временно недоступной" -- с этим стоит разобраться.

> > Материальный носитель -- некоторая квантовая система. Символ есть некоторое состояние этой системы, не обязательно стационарное и не любое, а такое, которое может быть "понято" устройством (тоже квантовым объектом). От наборе таких систем можно говорить как о ячейках памяти, в которых записаны символы. Слово "понято" означает здесь: устройство может провзаимодействовать с памятью и результатом взаимодействия будет достижение определенной цели.

> Вы рассматриваете таким образом только часть информации. Помимо ДИСКРЕТНОЙ, квантованной, существует непрерывная, аналоговая информация. Вспомните, например, аналоговые вычислительные машины... Я понимаю, что если вдаваться в тонкости квантового уровня, наверное, всякая аналоговая величина в итоге квантуется на огромное кол-во дискретных значений. Но в данном контексте это не принципиально! Вполне можно представить себе абстрактные аналоговые системы с бесконечным количеством состояний, являющиеся носителями информации.
> А как быть, например, с числом Пи? Пи несомненно несет информацию о соотношении сами знаете чего с чем. Но попробуйте его записать в виде числового значения...
Квантовые объекты не уже, а шире классических. Классическая физика в некотором смысле вытекает из квантовой. Так что квантовость и дискретность никак не связаны. Координата частицы есть непрерывная величина.

> > Пример.
> > В пространстве летает муха. На мухе расселся фотон и попал серез линзу на фотопластинку. Теперь фотопластинка является ячейкой памяти, в которой записан символ -- координата мухи.
> > Пусть теперь есть устройство, которое может считать содержание этой ячейки и использовать результат считывания (измерения) для ловли мухи. В этом случае это действительно ячейка памяти, в которой записана некая информация.
> > Если такого устройства нет, тогда нет никакой информации, а есть просто фотопластинка, на которую откуда-то упал фотон. Осмысленность состояния пластинки придает только априорное знание, что это координата мухи.

> Не согласен. Вы описали прибор для ПОЛУЧЕНИЯ информации о направлении приходящих фотонов. Получения, а не создания ее из ничего!
> Информация о координате мухи СОДЕРЖИТСЯ в отраженном от нее свете. И она содержалась в нем всегда, даже до изобретения Вами такого прибора. Иначе, каким образом этот прибор был бы изобретен?

Свет отраженный от мухи несомненно связан с координатой мухи. На квантовом языке состояние фотона запутано с состоянием мухи. Эта запутанность представляет собой информационный ресурс. Прибор нужен для реализации этого ресурса.

> Свет далеких звезд несет в себе информацию об их строении, составе, положении, температуре и т.д. Неужели Вы будете утверждать, что до появления человека свет звезд не содержал в себе этой информации ?!

До появления человека некому было интересоваться температурой. Температура -- придуманное человеком понятие, помогающее ему жить в этом мире.
Можно и помягче выразиться. До появления человека была вселенная с огромным количеством информационных ресурсов. Ресурс -- это то, из чего можно извлечь продукт. Можно -- это не значит, что продукт уже существовал.
Вы не слышали такое утверждение, что информация нужна только в нужное время и в нужном месте. Иначе это не информация, а просто шум.
Подумайте над этим.


> > 1.Но так же и кристаллическая решетка определяется некоторыми свойствами атомов или молекул. Эти свойства тоже информация? Продвигаясь далее рассмотрим одиночное тело, его скорость, импульс - тоже информация?
> 1. А что же это, по-Вашему?

Предварительный вопрос: информации может быть больше или меньше? Предварительный ответ - а как же! Информация может быть оценена количественно. Вопрос второй: во сколько раз больше одна ДНК несет информации по отношению к простенькому атому?

> > 2.Цепочка ДНК несет в себе информацию в той степени, в которой гуманоид сумел перевести замеченные закономерности на человеческий язык.
> 2. Не вся информация предназначена гуманоидам.

Возможно, но давайте разберемся с первым пунктом.


> > Но принципиально важно заведомо знать, где это пятнышко что обозначает. Заведомо надо заключить соглашение.
> Разумеется. "соглажшение" имеется.
Хорошо, к этому необходимо будет вернуться на более примитивном примере.

> Я в своих рассуждениях отталкиваюсь от предположения, что все фундаментальные вещи типа атомов и фотонов мы знаем и их достаточно для построения сложных вещей типа человеческого мозга. Я декларирую это как отправную точку своих рассуждений.

Что мы знаем об атомах? Имеем несколько моделей, т.е. описаний на человеческом языке. В простейшей модели атом имеет N степеней свободы, соответственно N параметров (если хотите координат). Параметры (сформулированные человеком) определяют объем информации, количественная мера этого объема - мощность множества всех допустимых значений. Учитывая ограничения на точность измерений получим конечное число.

> А это совсем другой вопрос. Описать процесс получения знаний, т.е. не просто получения простой информации, а создание общих абстрактых моделей типа F=ma, которые работают и для яблока и для груши и для луны, это было бы круто. Я давно над этим думаю, и даже придумал некую максимально упрощенную модель, но пока у меня не получается ничего впечатляющего :(

Я думаю, что получение простой информации уже требует рассмотрения (введения) абстрактных моделей.

>
> > > Еще раз повторюсь. Все что я здесь писал, относится к физической теории информации, а не к абстрактно-математической.
> > Но согласитесь, что между этими теориями должна быть очень тесная связь.

> Возможно это одно и то же. Просто вы сказали, что информация есть исходное понятие типа целого числа, что вызвало у меня попытку разграничить абстрактно-математический подход и физический.

И даже буду настаивать на исходности (неопределяемости) понятия информации. Абстрактно-математический подход может (и должен) быть применен после описательного введения исходных понятий.


> > > Но принципиально важно заведомо знать, где это пятнышко что обозначает. Заведомо надо заключить соглашение.
> > Разумеется. "соглажшение" имеется.
> Хорошо, к этому необходимо будет вернуться на более примитивном примере.

> > Я в своих рассуждениях отталкиваюсь от предположения, что все фундаментальные вещи типа атомов и фотонов мы знаем и их достаточно для построения сложных вещей типа человеческого мозга. Я декларирую это как отправную точку своих рассуждений.

> Что мы знаем об атомах? Имеем несколько моделей, т.е. описаний на человеческом языке. В простейшей модели атом имеет N степеней свободы, соответственно N параметров (если хотите координат). Параметры (сформулированные человеком) определяют объем информации, количественная мера этого объема - мощность множества всех допустимых значений. Учитывая ограничения на точность измерений получим конечное число.
Я в своих рассуждениях довольствуюсь совсем простыми параметрами -- координатой частицы. Т.е. ячейка памяти -- некий пустой n-мерный объем (обычно одномерный для простоты), в который помещается свободная частица массы m. Это максимально упрощенная модель пятна на фотопластинке. Поскольку в реальности абсолютно стационарных состояний не бывает, то локализованный пакет массивной частицы --- вполне пристойная модель. Дальше в эту модель можно добавлять всякие сложности типа внешнего поля, теплового движения соседних атомов и т.д.

> > А это совсем другой вопрос. Описать процесс получения знаний, т.е. не просто получения простой информации, а создание общих абстрактых моделей типа F=ma, которые работают и для яблока и для груши и для луны, это было бы круто. Я давно над этим думаю, и даже придумал некую максимально упрощенную модель, но пока у меня не получается ничего впечатляющего :(

> Я думаю, что получение простой информации уже требует рассмотрения (введения) абстрактных моделей.
Разумеется, у нас есть теория, квантовая механика. Все нужно рассматривать на ее языке. Какую модель вы еще имеете ввиду?

> >
> > > > Еще раз повторюсь. Все что я здесь писал, относится к физической теории информации, а не к абстрактно-математической.
> > > Но согласитесь, что между этими теориями должна быть очень тесная связь.

> > Возможно это одно и то же. Просто вы сказали, что информация есть исходное понятие типа целого числа, что вызвало у меня попытку разграничить абстрактно-математический подход и физический.

> И даже буду настаивать на исходности (неопределяемости) понятия информации. Абстрактно-математический подход может (и должен) быть применен после описательного введения исходных понятий.

Какого рода исходные понятия здесь могут потребоваться? Может попробуете сформулировать? Я ведь не настаиваю, что здесь в нескольких строчках я построил теорию, я только намечаю путь построения и пробую формулировать отдельные положения. Меня очень интересует, насколько понятно то, что я пишу и соответственнно пытаюсь скорректировать свои рассуждения. Наверное, они сырые. Но, пожалуй не более сырые, чем у Менского в последней статье.


> Я в своих рассуждениях довольствуюсь совсем простыми параметрами -- координатой частицы.

Ничего себе простой параметр! Мало того, что предварительно требуется усвоить понятие линии, потом длины, точки. Надо описать процедуры измерения длин, определиться с углами...

> Т.е. ячейка памяти -- некий пустой n-мерный объем (обычно одномерный для простоты)

Многомерность - это совсем просто.

> , в который помещается свободная частица массы m.

А что такое масса?

> > Я думаю, что получение простой информации уже требует рассмотрения (введения) абстрактных моделей.
> Разумеется, у нас есть теория, квантовая механика. Все нужно рассматривать на ее языке.

На ее языке, согласен. Если в язык теории входит понятие (используется) информации, то надо его определить или подробно описать. Определить (на мой взгляд) не получится. Описать - значит перечислить свойства. Первое свойство: информация есть отражение физической реальности в сознании, отражение может быть зафиксировано в символьном виде, если предварительно об этих символах условиться. Что мы и делаем в начальной школе. Второе свойство: информация может иметь кроме смыслового (условного) значения еще и количественную характеристику. Минимальное количество - бит с двумя состояниями (для КМ можно добавить и третье). В физике востребованы числовые величины. Каждое число (осмысленное) представляет собой некоторое количество информации, причем сорок и сто сорок в смысле объема информации равны между собой.

> Какую модель вы еще имеете ввиду?

Модель связи между параметрами. Информационной связи. Смысловой. Модель представления и описания информации. Слов не подберу, не хватает.

> Какого рода исходные понятия здесь могут потребоваться? Может попробуете сформулировать?

Пробую, и еще пробовать буду.

> Но, пожалуй не более сырые, чем у Менского в последней статье.

Первое мое впечатление - мрак. Но он что-то свое, на своем (не согласованном с нами) языке, рассказывает, может мрак и рассеется.


> > Я в своих рассуждениях довольствуюсь совсем простыми параметрами -- координатой частицы.
> Ничего себе простой параметр! Мало того, что предварительно требуется усвоить понятие линии, потом длины, точки. Надо описать процедуры измерения длин, определиться с углами...
> > Т.е. ячейка памяти -- некий пустой n-мерный объем (обычно одномерный для простоты)
> Многомерность - это совсем просто.
> > , в который помещается свободная частица массы m.
> А что такое масса?
Масса? Она входит в уравнение Шредингера.
Мне нужен непрерывный параметр, потому что для него легче описывать неточные изерения. Можно и с дискретными, даже кажется, что это проще, если система конечномерная, типа спина. Но это обманчивое впечатление.
Неточность измерений очень важна по ряду причин. Во-первых, точных измерений просто не бывает. Во-вторых, точное измерение непрерывного параметра приводит к бесконечной неопределенности сопряженного. В третьих, точное измерение делает бессмысленным повторное измерение того же праметра по прошествии некоторого времени. Кстати, Менский именно поэтомку любит свои непрерывные неточные измерения.

> На ее языке, согласен. Если в язык теории входит понятие (используется) информации, то надо его определить или подробно описать. Определить (на мой взгляд) не получится. Описать - значит перечислить свойства. Первое свойство: информация есть отражение физической реальности в сознании, отражение может быть зафиксировано в символьном виде, если предварительно об этих символах условиться. Что мы и делаем в начальной школе. Второе свойство: информация может иметь кроме смыслового (условного) значения еще и количественную характеристику. Минимальное количество - бит с двумя состояниями (для КМ можно добавить и третье). В физике востребованы числовые величины. Каждое число (осмысленное) представляет собой некоторое количество информации, причем сорок и сто сорок в смысле объема информации равны между собой.

Хорошо, предположим, что с количеством информации мы разобрались. Тем более, что есть энтропия Шеннона или фон-Неймана, если речь идет о квантовой системе.
Но что такое "смысл"?

> > Какую модель вы еще имеете ввиду?
> Модель связи между параметрами. Информационной связи. Смысловой. Модель представления и описания информации. Слов не подберу, не хватает.

> > Какого рода исходные понятия здесь могут потребоваться? Может попробуете сформулировать?

> Пробую, и еще пробовать буду.

> > Но, пожалуй не более сырые, чем у Менского в последней статье.

> Первое мое впечатление - мрак. Но он что-то свое, на своем (не согласованном с нами) языке, рассказывает, может мрак и рассеется.
С вами несоглассованный. Это пожалуй. Но со мной вполне :)
Я вполне понимаю, о чем он пишет и у меня даже особых возражений нет против того, что у него написано. Он мало что нового там написал, за исключением, пожалуй, 2х вещей.
Первая -- это идея объяснить классичность наблюдаемого макромира к чему-то похожему на антропнный принцип. В отличие от Zurek'a, который пытается объяснить это модной декогеренцией. Декогеренция -- штука хорошая, но с ней есть ряд принципиальных трудностей. (Кстати, почитайте про нее, если не читали еще).
Вторая -- странно звучащая идея, что некоторые "активные разумы" могут как-то влиять на вероятность исхода случайного события. Звучит мистически и антинаучно. Но Менский совсем не мистик. Он уже говорил эту идею, никак не объясняя ее, но я не думаю, что он это просто так пишет... Более того, я думаю, что такая штука вполне возможна в Эвереттовской картине мира.
Все, о чем пишет Менский, довольно простые вещи, но к сожалению, эти вещи часто оказываются трудны для восприятия. Обычная ситуация, мешает опыт и интуиция, выработанная на совсем других задачах.


> Хорошо, предположим, что с количеством информации мы разобрались.
> Тем более, что есть энтропия Шеннона или фон-Неймана, если речь идет о квантовой системе.
Думаю, что еще не разобрались. Я не против устоявшихся, общепринятых терминов и понятий, но количество информации и энтропия совсем не одно и то же. Энтропия - это один параметр, одно число, которое как информация имеет количественную характеристику для рассматриваемой системы в соответствии с выбранной точностью представления числа и ограничением его максимального значения. Энтропия со временем может меняться, количество информации об энтропии - нет.

> > > Но, пожалуй не более сырые, чем у Менского в последней статье.
> > Первое мое впечатление - мрак. Но он что-то свое, на своем (не согласованном с нами) языке, рассказывает, может мрак и рассеется.
> С вами несоглассованный. Это пожалуй. Но со мной вполне :)

Да, со мной, но я не одинок, поэтому пишу - с нами.

> Я вполне понимаю, о чем он пишет и у меня даже особых возражений нет против того, что у него написано. Он мало что нового там написал, за исключением, пожалуй, 2х вещей.
> Первая -- это идея объяснить классичность наблюдаемого макромира к чему-то похожему на антропнный принцип. В отличие от Zurek'a, который пытается объяснить это модной декогеренцией. Декогеренция -- штука хорошая, но с ней есть ряд принципиальных трудностей. (Кстати, почитайте про нее, если не читали еще).

Имею отрывочную информацию, но интуитивно декогеренция мне кажется понятной и естесственной, буд рад ссылке, хотелось бы почитать подробнее.

> Вторая -- странно звучащая идея, что некоторые "активные разумы" могут как-то влиять на вероятность исхода случайного события. Звучит мистически и антинаучно. Но Менский совсем не мистик.

Про это я и написал - мрак. Для меня. Просто непонятный мне язык.

> Все, о чем пишет Менский, довольно простые вещи, но к сожалению, эти вещи часто оказываются трудны для восприятия. Обычная ситуация, мешает опыт и интуиция, выработанная на совсем других задачах.

> Но что такое "смысл"?
> > А что такое масса?
> Масса? Она входит в уравнение Шредингера.

У меня ощущение, что Вам мешает опыт и интуиция выработанная... если мы говорим об информации, то наплевать нам на то, что масса в уравнение входит (в одно или другое), важно, что для нее есть множество допустимых значений и мощность этого множества определяет объем информации. Еще координаты добавят и т.д. В итоге в соответвии с выбранной нами моделью получим число (конечное в силу ограничения максимальных значений и точности) определяющее количество информации о системе. И это число со временем не изменяется, это не энтропия. Оно может быть изменено нами, если пересмотрим модель.



Насколько встречал в жизни, всякая профессия придаёт понятию «информация» свой утилитарный смысл и своё определение. А если все такие определения сложить и немного подумать, то это понятие становится более широким, чем объективная реальность, потому что фантастика и гипотезы – это тоже информация. Бред сумасшедшего или сны пациента есть информация для врача. Картина «Сон разума рождает чудовищ» - это объективная реальность, порожденная бредовым воображением. Авиация – давняя мечта человечества. Так что тут первично: воображение или реальность?

Когда имею дело с системами управления, то, естественно, понимаю все воздействия одного объекта на другой, включая законы Ньютона, как сигналы, т.е. как потоки информации. А сами объекты - как преобразователи этой информации, каждый из которых описывается математическим оператором или как-нибудь еще. При этом всю физику можно перевести на тот же язык систем управления. А почему бы и нет? Всё-таки это некий альтернативный образ мыслей, хорошо обкатанный, не содержащий никаких дефектов и даже научный. А природу при этом и ее части можно понимать как систему и подсистемы.
Искусственная система, как правило, состоит из управляемого объекта и управляющих устройств. Ставятся датчики, которые снимают информацию о различных параметрах системы, эта информация обрабатывается управляющими устройствами и передается объекту в виде физических воздействий на него, затем обрабатывается самим объектом и возвращается обратно через те же датчики. Так информация бегает по системе вкруговую по одному или по нескольким замкнутым контурам.

Тут есть один заманчивый момент. Пусть, например, система одноконтурная, а ее состояние описывается многомерным вектором Х. Компоненты сигнала Х поступают от разных датчиков на вход управляющего устройства. Когда хотят, чтобы Х был равен некоему заданному значению Хз, то на вход устройства подают разность Хз – Х. Управляющее устройство преобразует этот сигнал, например, умножая его на инт. - диф. матрицу Р, и передаёт на объект, который тоже изменяет этот сигнал, как бы умножая его на матрицу Q, и возвращает через датчики в виде вектора Х – сигнала обратной связи. Тогда уравнение системы при отсутствии прочих сигналов (возмущающих состояние системы), естественно, такое: Хз - X = P*Q*(Хз – X).
Это равенство возможно, если сигнал Хз - Хз либо равен нулю, либо он есть собственная функция оператора PQ. Обычно это процессы, затухающие со временем, но бывают и незатухающие, чаще нежелательные (генерация или автоколебания). т.е. в системе выживает не всякая информация. Как мы говорим, нежелательные процессы (а они – тоже информация) подавляются обратными связями. Но не всегда. И не всякая информация, а только та, которая циркулирует в системе.

Если природу тоже понимать как систему, в которой возможны обратные связи, то стоит задуматься о том, что и в ней циркулирует лишь та информация, которая почему-либо не подавляется обратными связями. Ну, во всей-то природе я не спец, но вот классический электромагнетизм с его уравнениями Максвелла подходит под такое представление как нельзя лучше. Как-нибудь по другому случаю я вам это распишу.


> Насколько встречал в жизни, всякая профессия придаёт понятию «информация» свой утилитарный смысл и своё определение.

Да, и это называется жаргон, когда для упрощения разговора длинное слово или словосочетание заменяют коротким.

> А если все такие определения сложить и немного подумать, то это понятие становится более широким, чем объективная реальность

Более узким, информация не может (если исключить избыточное кодирование) содержать в себе больше, чем объективная реальность.

> , потому что фантастика и гипотезы – это тоже информация. Бред сумасшедшего или сны пациента есть информация для врача.

Бред сумасшедшего врачу выдается в виде некоторого текста, хороший врач обрабатывает этот текст добавляя информацию из толстых книг по медицине, далее выдает диагноз, можно сказать скорректированную информацию.

> Когда имею дело с системами управления, то, естественно, понимаю все воздействия одного объекта на другой, включая законы Ньютона, как сигналы, т.е. как потоки информации.

Под сигналом, видимо Вы подразумеваете физическое воздействие? Тогда это не поток информации.

> А сами объекты - как преобразователи этой информации, каждый из которых описывается математическим оператором или как-нибудь еще.

Преобразователь информации и объект не одно и тоже. Преобразователь входит в состав "наблюдателя". АЦП переобразует эктрический сигнал в информацию, ЦАП наоборот. Сам электрический сигнал не информация. Информация может иметь характеристику "сколько бит", сигнал может иметь хартеристику "сколько вольт" или "сколько ампер".

> Так информация бегает по системе вкруговую по одному или по нескольким замкнутым контурам.

Самостоятельно бегать могут тела, поля. Как информация может бегать?

> Если природу тоже понимать как систему, в которой возможны обратные связи, то стоит задуматься о том, что и в ней циркулирует лишь та информация, которая почему-либо не подавляется обратными связями. Ну, во всей-то природе я не спец, но вот классический электромагнетизм с его уравнениями Максвелла подходит под такое представление как нельзя лучше. Как-нибудь по другому случаю я вам это распишу.


> > 1) Хотелось бы покороче и попроще;
> вам и флаг в руки :)

Мне кажется справедливым следующее определение:

Информация физической системы - это необходимый и достаточный набор качественных и количественных характеристик, позволяющий однозначно воспроизвести с заданной точностью требуемую последовательность событий (или состояние физической системы).

Какие будут возражения?


> > Предлагаю, для начала, сформулировать
> > О П Р Е Д Е Л Е Н И Е И Н Ф О Р М А Ц И И


> ><<Информацией называется некоторый набор символов (запись на некотором материальном носителе), для которого существует в природе хотябы одно устройство (человек, машина, прибор) для которго этот набор может быть использован для достижения данной цели. >>

> ><<Вы не слышали такое утверждение, что информация нужна только в нужное время и в нужном месте. Иначе это не информация, а просто шум. Подумайте над этим. >>

На мой взгляд это не совсем правильно. Есть такое хорошее понятие, как – ПОЛЕЗНАЯ ИНФОРМАЦИЯ. Так вот Вы говорите именно о полезной информации, но не о информации вообще. Именно полезная информация определяется способностью реципиента декодировать ее.
Представьте себе сильно зашумленный канал связи. Очевидно, что шум переносит даже больше информации, чем полезный сигнал. Но эта информация для нас бесполезна и наша задача выделить из этого щума полезный сигнал.
Предельным случаем является абстракция белого шума. Белый шум несет бесконечную информацию.
Информация, определенная по Шеннону не различает полезную информацию от полной. Если я передаю сигнал из 8 бит, то принятая на другом конце информация равна изменению энтропии I= delta S=8. Если 1 бит зашумлен, то принятая информация все равно равна 8бит. Однако, полезная информация равна только 7 битам. Это не означает, что этот 1 бит нераспознанной информации не содержит информации. Он несет какую-то информацию об источнике шума.

Так как информация по Шеннону определяется как изменение энтропии, а сама энтропия, как правило, определяется относительно, то для информации можно тоже выбрать некоторое условно нулевое значение.

Однако, если мы говорим о фундаментальных вещах, то такая точка зрения неприемлема. По идее, энтропия, а так же и информация, если физику увязывать с квантовой теорией информации, должны быть абсолютными. Любая физ. система имеет какое-то количество состояний N. И логарифм этого числа равен энтропии. Если нам удалось узнать точно в каком состоянии находится эта система, то мы получили информацию равную logN.
На мой взгляд к информации лучше всего подходить с т.з. математической меры сложности. С этой т.з. число pi, хотя и имеет бесконечное число знаков несет конечную и очень небольшую информацию, равную информации, содержащейся в самом коротком алгоритме, способном вычислять число pi. Крайним случаем являются невычислимые числа, содержащие бесконечную информацию.


> > > 1.Но так же и кристаллическая решетка определяется некоторыми свойствами атомов или молекул. Эти свойства тоже информация? Продвигаясь далее рассмотрим одиночное тело, его скорость, импульс - тоже информация?
> > 1. А что же это, по-Вашему?

> Предварительный вопрос: информации может быть больше или меньше? Предварительный ответ - а как же! Информация может быть оценена количественно. Вопрос второй: во сколько раз больше одна ДНК несет информации по отношению к простенькому атому?

> > > 2.Цепочка ДНК несет в себе информацию в той степени, в которой гуманоид сумел перевести замеченные закономерности на человеческий язык.
> > 2. Не вся информация предназначена гуманоидам.

> Возможно, но давайте разберемся с первым пунктом.
>
Если мы в нём разберёмся, мы станем величайшими мудрецами двуногой расы. Не буду угадывать - лучше сразу выкладывайте, что Вы по этому вопросу приготовили. :)


> Предлагаю, для начала, сформулировать

> О П Р Е Д Е Л Е Н И Е И Н Ф О Р М А Ц И И
> --------------------------------------------

Какую информацию Вы имеете ввиду?
http://www.oval.ru/enc/?slovo=%E8%ED%F4%EE%F0%EC%E0%F6%E8%FF

С латинского буквальный перевод:
Informatio - формирование, учение через поучение.
Информировать informare - придание образа

in.. -в, во, внутрь
forma -образ

То что является информацией для одного не является оной для другого.
> А уж потом... перейти к ее свойствам.

Со свойствами проще(-:.
Например я утверждаю что информация подлежит з-нам сохранения.
В состоянии переходить из одной ф-мы в другую.

С уважением До.



> Информация физической системы - это необходимый и достаточный набор качественных и количественных характеристик, позволяющий однозначно воспроизвести с заданной точностью требуемую последовательность событий (или состояние физической системы).

Почему бы не сравнить информацию с координатами некой многомерной координатной системы?
Только рассматривать эту координатную систему несколько шире чем позицию в пространстве и времени а учитывать такие св-ва как наличие скорости, направления, массы, спина, заряда итд.? Тогда информацию можно свести к состоянию системы в пространстве в некоторый момент времени.
Важна естественно возможность считывания этой информации несмотря на опасность изменения этой информации при считывании.
С уважением До.


> > > 1) Хотелось бы покороче и попроще;
> > вам и флаг в руки :)

> Мне кажется справедливым следующее определение:

> Информация физической системы - это необходимый и достаточный набор качественных и количественных характеристик, позволяющий однозначно воспроизвести с заданной точностью требуемую последовательность событий (или состояние физической системы).

> Какие будут возражения?

Приведите пример использования данного определения.
Кто или что должно воспроизводить данную систему.


> > > > 1) Хотелось бы покороче и попроще;
> > > вам и флаг в руки :)

> > Мне кажется справедливым следующее определение:

> > Информация физической системы - это необходимый и достаточный набор качественных и количественных характеристик, позволяющий однозначно воспроизвести с заданной точностью требуемую последовательность событий (или состояние физической системы).

> > Какие будут возражения?

> Приведите пример использования данного определения.
> Кто или что должно воспроизводить данную систему.

Кто, или что - не важно. Важна потенциальная возможность!

Например, передача факсимильного сообщения по телефонной сети.
На входе есть белый лист бумаги с черными пятнами.
Требуется на другом конце канала связи получить копию.
Характеристики оригинала оцифровываются и передаются в виде информационного потока.
Естественно, выбирается только конкретное подмножество характеристик с нужной точностью. Скажем, химический состав и толщина бумаги туда не входит...


>
> > Информация физической системы - это необходимый и достаточный набор качественных и количественных характеристик, позволяющий однозначно воспроизвести с заданной точностью требуемую последовательность событий (или состояние физической системы).

> Почему бы не сравнить информацию с координатами некой многомерной координатной системы?
> Только рассматривать эту координатную систему несколько шире чем позицию в пространстве и времени а учитывать такие св-ва как наличие скорости, направления, массы, спина, заряда итд.? Тогда информацию можно свести к состоянию системы в пространстве в некоторый момент времени.
> Важна естественно возможность считывания этой информации несмотря на опасность изменения этой информации при считывании.

Почему бы и нет? Всякий независимый набор переменных можно представить в виде точки в многомерном пространстве...

Тут вопрос в другом! У нас с Вами примерно одинаковый взгляд на понятие "информация". Но qqruza понимает под этим совсем другое :
не состояние системы, а символьное кодирование известной части этого состояния системы. Он считает, что информации без человека не существует и она субъективна.
Я же считаю, что информация бывает известной человеку, или неизвестной, востребованной, или нет, но вообще она по сути объективна и никак не зависит от наличия или отсутствия человека.
Этим и отличаются наши с ним определения.

С уважением, Falcon.


> > > Предлагаю, для начала, сформулировать
> > > О П Р Е Д Е Л Е Н И Е И Н Ф О Р М А Ц И И

>
> > ><<Информацией называется некоторый набор символов (запись на некотором материальном носителе), для которого существует в природе хотябы одно устройство (человек, машина, прибор) для которго этот набор может быть использован для достижения данной цели. >>

> > ><<Вы не слышали такое утверждение, что информация нужна только в нужное время и в нужном месте. Иначе это не информация, а просто шум. Подумайте над этим. >>

> На мой взгляд это не совсем правильно. Есть такое хорошее понятие, как – ПОЛЕЗНАЯ ИНФОРМАЦИЯ. Так вот Вы говорите именно о полезной информации, но не о информации вообще. Именно полезная информация определяется способностью реципиента декодировать ее.

Да, я знаю. Есть понятие полезной информации, но оно пракически забыто, поскольку от него мало проку было.
Я настаиваю на своем определении, как об информации "вообще". Во-первых в отличие от предыдущего определения полезной информации, я даю существенно квантовое определение.
Немного другими словами то же определение. Пусть у нас есть некоторый квантовый объект. При взаимодействии с другим пробным квантовым объектом (начальное состояние которого изветно) возникает запутанное состояние. Эта запутанность представляет собой информационный ресурс. Проводя измерение пробного объекта мы получаем информацию о состоянии первого объекта. В этом измерении информация рождается. Можно также посчитать количество полученной информации, если знать или продположить определенное начальное состояние объекта.
Я утверждаю, что любая информация (в обычном классическом смысле) появляется именно таким способом. Может я не учел чего-то? И полезная и бесполезная тоже.


> Представьте себе сильно зашумленный канал связи. Очевидно, что шум переносит даже больше информации, чем полезный сигнал. Но эта информация для нас бесполезна и наша задача выделить из этого щума полезный сигнал.
> Предельным случаем является абстракция белого шума. Белый шум несет бесконечную информацию.
Разумеется, шум несет в себе много информации. Например, о тепловых колебаниях среды и деталей усилителя. Это вполне настоящая информация, и она вполне может быть полезной в определенных экспериментах.
Такой вот пример пришел в голову.
Вы смотрите телевизор, т.е. получаете полезную информацию. Вдруг, начинаются странные помехи, экран начинает квазипериодически гаснуть и загораться вновь. Из=за этих помех вы теряете часть информации. Но через определенное время вы замечаете, эти помехи есть текст на азбуке морзе. Кто-то специально включает источник шума, чтобы передать важную информацию о готовящемся теракте.

> Информация, определенная по Шеннону не различает полезную информацию от полной. Если я передаю сигнал из 8 бит, то принятая на другом конце информация равна изменению энтропии I= delta S=8. Если 1 бит зашумлен, то принятая информация все равно равна 8бит. Однако, полезная информация равна только 7 битам. Это не означает, что этот 1 бит нераспознанной информации не содержит информации. Он несет какую-то информацию об источнике шума.

> Так как информация по Шеннону определяется как изменение энтропии, а сама энтропия, как правило, определяется относительно, то для информации можно тоже выбрать некоторое условно нулевое значение.

> Однако, если мы говорим о фундаментальных вещах, то такая точка зрения неприемлема. По идее, энтропия, а так же и информация, если физику увязывать с квантовой теорией информации, должны быть абсолютными. Любая физ. система имеет какое-то количество состояний N. И логарифм этого числа равен энтропии. Если нам удалось узнать точно в каком состоянии находится эта система, то мы получили информацию равную logN.
> На мой взгляд к информации лучше всего подходить с т.з. математической меры сложности. С этой т.з. число pi, хотя и имеет бесконечное число знаков несет конечную и очень небольшую информацию, равную информации, содержащейся в самом коротком алгоритме, способном вычислять число pi. Крайним случаем являются невычислимые числа, содержащие бесконечную информацию.
Это информация по Колмогорову. Несомненно, она очень привлекательна и, главное, она имеет довольно глубокий смысл, в отличие от информации Шеннона.
Может вы обратили внимание, что мое определение аппелирует к конкретному существующему устройству, а информация есть алгоритм. Естественно, можно количество информации оценивать по сложности алгоритма.

Прочитав про число π захотелось еще один философский экскурс :)
Существует в наших представления некая магия. Магия субстанции, изобретенная Аристотелем (Пелевин замечательно это обыграл в Чапаеве). Многим представляется, что информация есть некая субстанция. Даже говорят о ее сохранении, как очевидной вещи. Действительно, как может появляться из ничего или пропадать НЕЧТО :).
Так вот. Число π само по себе не содержит никакой информации. Разве что о расположении черных пятен на белой бумаге или если реч идет о выборе буквы греческого алфавита. Если вопрос задать, какое самое знаменитое число в математике, то ответ π будет содержать немногим более одного бита (π, е, i, 1 c немного разнными частотами).
Информацией является именно конкретный алгоритм. Если кто-то придумает другой алгоритм для вычисления числа π, то он будет иметь другое уоличество информации. Колмогоров предлагал взять нижнюю грань из множества всех правильных алгоритмов. Это разумно, если определить язык (теорию), на котором нужно писать алгоритмы. Беда только в том, что вычислить эту нижнюю границу практически невозможно для любых сколь-нибудь полезных теорий.
Мне кажется, что использование КМ, как языка вполне оправдано. Впрочем, оправданность определится только полезными результатами, коих пока, увы, нет.


> > Предлагаю, для начала, сформулировать

> > О П Р Е Д Е Л Е Н И Е И Н Ф О Р М А Ц И И
> > --------------------------------------------

> Какую информацию Вы имеете ввиду?

Любую. Абстрактную. Мы говорим про законы сохранения энергии не уточняя - какой.

> То что является информацией для одного не является оной для другого.

То, что является вороной для одного, не может быть собакой для другого :)
Информация может быть ненужной, неиспользуемой - от этого она не перестанет быть собой...

> Со свойствами проще(-:.
> Например я утверждаю что информация подлежит з-нам сохранения.
> В состоянии переходить из одной ф-мы в другую.

Пока не определимся, что это такое, как мы этио понимаем, выводить законы мягко говоря странно...
Как Вы собираетесь их доказывать, или хотя бы проверять?

С уважением Falcon.


> > > > > 1) Хотелось бы покороче и попроще;
> > > > вам и флаг в руки :)

> > > Мне кажется справедливым следующее определение:

> > > Информация физической системы - это необходимый и достаточный набор качественных и количественных характеристик, позволяющий однозначно воспроизвести с заданной точностью требуемую последовательность событий (или состояние физической системы).

> > > Какие будут возражения?

> > Приведите пример использования данного определения.
> > Кто или что должно воспроизводить данную систему.

> Кто, или что - не важно. Важна потенциальная возможность!
Как вы будете доказывать принципиальную возможность в каком-нить конкретном случае?



> Тут вопрос в другом! У нас с Вами примерно одинаковый взгляд на понятие "информация". Но qqruza понимает под этим совсем другое :
> не состояние системы, а символьное кодирование известной части этого состояния системы. Он считает, что информации без человека не существует и она субъективна.
Я позволю себе немного поправить ваше изложение моей позиции.
Я не говорил, что информация не существует без человека. А если и говорил что-то подобное, то немного в другом смысле. Говоря об информации, я более всего интересуюсь феноменом человеческого сознания. Поэтому иногда связываю эти два понятия, поскольку информация в жизни человека играет первостепенную роль и сознание работает, как кажется именно с информацией. Но в определении я говорил о существовании (причем не "принципиальном существовании", а реальном) некоторого прибора, способного эту информацию интерпретировать.
Информация несомненно "субъективна", поскольку только именно этот прибор способен ее прочитать. Я взял в кавычки, поскольку субъективность здесь не в смысле субъекта-человека, а в смысле некоторой системы-прибора. Если прибор -- человек, то она субективна в обычном смысле.
Однако, довольно большая часть информации, обращающаяся в нашем мире, имеет вполне объективный характер, т.е. может тиражироваться и восприниматься многими субъектами. Именно с ней имеет дело классическая теория Шеннона.

> Я же считаю, что информация бывает известной человеку, или неизвестной, востребованной, или нет, но вообще она по сути объективна и никак не зависит от наличия или отсутствия человека.
> Этим и отличаются наши с ним определения.


> Если мы в нём разберёмся, мы станем величайшими мудрецами двуногой расы. Не буду угадывать - лучше сразу выкладывайте, что Вы по этому вопросу приготовили. :)

Давайте решим давал ли Шеннон определение информации. Нет не давал. При наличии определения (общепризнанного) мы бы его и обсуждали. Шеннон исследовал свойства информации при ее передаче. Задолго до него этим занимались многие другие, только по другому.

Давайте признаем, что, если мы приписываем информации возможность иметь количественную характеристику, то надо эту характеристику "озвучить". Единица измерения - бит. Способ измерения - определение мощности множества допустимых значений всех приписываемых рассматриваемой модели параметров (с учетом символьного представления). Отсюда с необходимостью следует субъективность информации - модель определяет гуманоид (пока искуственный интелект не создан). Отсюда следует "ущербность" информации - нам придется довольствоваться конечной точностью и ограничением максимальных значений выбранных параметров.

При рассмотрении механических систем мы вводим понятия скорости, массы, импульса, которые по человеческому определения имеют численные значения. В теории точность мы не ограничиваем, более того используем кроме рациональных чисел вещественные, но при реальных измерениях получаем приближенные значения, которые и называем информацией.

Кроме того при составлении моделей мы используем текстовые собщения, которые тоже называем информацией.

Во сколько раз больше одна ДНК несет информации по отношению к простенькому атому? Давайте посчитаем сколько параметров мы можем определить для ДНК и для отдельного атома, договоримся о точности измерений и определим отношение. Только завтра кто-то придумает новый параметр и отношение изменится. Информация субъективна.

Вот что полезного сделал Шеннон, так это оценка избыточности нашего кодирования информации, если мы перегнули палку в оценке максимального значения параметров, точности измерения, т.е. по Шеннону мы можем оценить качество нашей модели для конкретной серии измерений.


> > Хорошо, предположим, что с количеством информации мы разобрались.
> > Тем более, что есть энтропия Шеннона или фон-Неймана, если речь идет о квантовой системе.
> Думаю, что еще не разобрались.
Вы вопроса не поняли.
Если оставить вопрос о уоличестве информации (предположим, что энтропия нас удовлетворяет в качестве меры), то у вас фигурирует также понятие "смысл информации". Что это такое с вашей точки зрения.


> > > > Но, пожалуй не более сырые, чем у Менского в последней статье.
> > > Первое мое впечатление - мрак. Но он что-то свое, на своем (не согласованном с нами) языке, рассказывает, может мрак и рассеется.
> > С вами несоглассованный. Это пожалуй. Но со мной вполне :)

> Да, со мной, но я не одинок, поэтому пишу - с нами.
Конечно, не одиноки :) Я немного знаю физиков, которые действительно задумывались об обсуждаемых проблемах и предлагали какие-то идеи на этот счет. Большинство отмахивается от них как от софистики.

> > Я вполне понимаю, о чем он пишет и у меня даже особых возражений нет против того, что у него написано. Он мало что нового там написал, за исключением, пожалуй, 2х вещей.
> > Первая -- это идея объяснить классичность наблюдаемого макромира к чему-то похожему на антропнный принцип. В отличие от Zurek'a, который пытается объяснить это модной декогеренцией. Декогеренция -- штука хорошая, но с ней есть ряд принципиальных трудностей. (Кстати, почитайте про нее, если не читали еще).

> Имею отрывочную информацию, но интуитивно декогеренция мне кажется понятной и естесственной, буд рад ссылке, хотелось бы почитать подробнее.

Arxiv.org ищите по имени Zurek. У него там ряд вполне популярных обзоров.
На русском языке Менский. У него в УФН несколько статей. 2000го года, растиражированная в инете. Потом в прошлом году была статься про диссипацию в КМ. Есть у него хорошая книжка "Квантовые измерени. Декогеренция". Где-то у меня был электронный вариант, могу прислать.

> > Вторая -- странно звучащая идея, что некоторые "активные разумы" могут как-то влиять на вероятность исхода случайного события. Звучит мистически и антинаучно. Но Менский совсем не мистик.

> Про это я и написал - мрак. Для меня. Просто непонятный мне язык.
Совсем неудивительно :)
Я бы без подробных объяснений не написал бы :)


> > Насколько встречал в жизни, всякая профессия придаёт понятию «информация» свой утилитарный смысл и своё определение.

> Да, и это называется жаргон, когда для упрощения разговора длинное слово или словосочетание заменяют коротким.

> > А если все такие определения сложить и немного подумать, то это понятие становится более широким, чем объективная реальность

> Более узким, информация не может (если исключить избыточное кодирование) содержать в себе больше, чем объективная реальность.

> > , потому что фантастика и гипотезы – это тоже информация. Бред сумасшедшего или сны пациента есть информация для врача.

> Бред сумасшедшего врачу выдается в виде некоторого текста, хороший врач обрабатывает этот текст добавляя информацию из толстых книг по медицине, далее выдает диагноз, можно сказать скорректированную информацию.

> > Когда имею дело с системами управления, то, естественно, понимаю все воздействия одного объекта на другой, включая законы Ньютона, как сигналы, т.е. как потоки информации.

> Под сигналом, видимо Вы подразумеваете физическое воздействие? Тогда это не поток информации.

> > А сами объекты - как преобразователи этой информации, каждый из которых описывается математическим оператором или как-нибудь еще.

> Преобразователь информации и объект не одно и тоже. Преобразователь входит в состав "наблюдателя". АЦП переобразует эктрический сигнал в информацию, ЦАП наоборот. Сам электрический сигнал не информация. Информация может иметь характеристику "сколько бит", сигнал может иметь хартеристику "сколько вольт" или "сколько ампер".

> > Так информация бегает по системе вкруговую по одному или по нескольким замкнутым контурам.

> Самостоятельно бегать могут тела, поля. Как информация может бегать?

> > Если природу тоже понимать как систему, в которой возможны обратные связи, то стоит задуматься о том, что и в ней циркулирует лишь та информация, которая почему-либо не подавляется обратными связями. Ну, во всей-то природе я не спец, но вот классический электромагнетизм с его уравнениями Максвелла подходит под такое представление как нельзя лучше. Как-нибудь по другому случаю я вам это распишу.

Сигнал - это всё то, что переносит информацию, между сигналом и информацией хоть знак равенства ставь. Она может кодироваться в вольтах, герцах, килограммах - в разных случаях по-разному. Например, информация о натяжении бегущей ленты получается в виде силы давления ленты на вал, который она огибает. Потом преобразуется в аналоговый сигнал и передаётся в котроллер через АЦП. Это пример из недавней работы. А работаю я давно, и в таком понятии информации уже закоренел.
И видите как трудно договориться.


> Сигнал - это всё то, что переносит информацию
Т.е. это материальный носитель информации? Или порция информации?

> , между сигналом и информацией хоть знак равенства ставь.
Два термина для одного понятия - излишество, порция информации - почти согласен.

> Она может кодироваться в вольтах, герцах, килограммах - в разных случаях по-разному.
Правильно, информация как понятие обобщает разнородные параметры, содержит в себе "чистое" - информацию. Намеренно зацикливаю. Что общего в вольтах и герцах - необходимость перемещения информации от носителя к носителю, обработки в голове или компьютере, методы обработки - математические процедуры. Частный, но очень распространенный вид информации - число.

> Например, информация о натяжении бегущей ленты получается в виде силы давления ленты на вал, который она огибает.
А тут еще нет информации, есть сила натяжения. По предварительной модели мы предполагаем, что силу можно посчитать и получить формальное выражение (число), которое будет информацией (которую потом можно хранить, обрабатывать и тиражировать). А пока это "информационный ресурс" (в этой ветке вычитатал, словосочетание запомнилось).

> Потом преобразуется в аналоговый сигнал и передаётся в котроллер через АЦП.
Контроллер сам запомнил или записал СИМВОЛ - это уже информация. Символ - битовая комбинация.

> А работаю я давно, и в таком понятии информации уже закоренел.
> И видите как трудно договориться.
Абсолютно не согласен.

> Если природу тоже понимать как систему, в которой возможны обратные связи, то стоит задуматься о том, что и в ней циркулирует лишь та информация, которая почему-либо не подавляется обратными связями.

Если убрать "циркулирует информация", то интересный подход. Другими словами в природе существуют причинно-следственные связи, количественные характеристики этих связей (получаемых с некоторой точностью) называют информацией.



> > > Хорошо, предположим, что с количеством информации мы разобрались.
> > > Тем более, что есть энтропия Шеннона или фон-Неймана, если речь идет о квантовой системе.
> > Думаю, что еще не разобрались.
> Вы вопроса не поняли.
> Если оставить вопрос о уоличестве информации (предположим, что энтропия нас удовлетворяет в качестве меры),

Оставить вопрос о количестве информации нельзя, энтропия по определения есть числовая функция числового же аргумента. Предварительно требуется оговорить смысл этого аргумента.

> то у вас фигурирует также понятие "смысл информации". Что это такое с вашей точки зрения.

Коротко - физическая размерность. В физике нет безрамерных (бессмысленных) величин. Делим метры на метры и получаем разы. Или метры, если в знаменателе подразумевается эталон. Информация имеет свойство быть условной, требует предварительной договоренности в смысловой части. Именно поэтому ДНК не несет в себе информации, информация не циркулирует в системе.



> > > > Хорошо, предположим, что с количеством информации мы разобрались.
> > > > Тем более, что есть энтропия Шеннона или фон-Неймана, если речь идет о квантовой системе.
> > > Думаю, что еще не разобрались.
> > Вы вопроса не поняли.
> > Если оставить вопрос о уоличестве информации (предположим, что энтропия нас удовлетворяет в качестве меры),

> Оставить вопрос о количестве информации нельзя, энтропия по определения есть числовая функция числового же аргумента. Предварительно требуется оговорить смысл этого аргумента.
Вообще-то теория Шеннона не использует определения информации, но вполне успешно оперирует количеством оной.

> > то у вас фигурирует также понятие "смысл информации". Что это такое с вашей точки зрения.

> Коротко - физическая размерность. В физике нет безрамерных (бессмысленных) величин. Делим метры на метры и получаем разы. Или метры, если в знаменателе подразумевается эталон. Информация имеет свойство быть условной, требует предварительной договоренности в смысловой части. Именно поэтому ДНК не несет в себе информации, информация не циркулирует в системе.
Несет в себе информацию ДНК или не несет -- это частности, зависящие от определений и терминов. Спорить по этому поводу, на мой взгляд, бессмысленно.
Определения мы можем давать какие угодно.
Поэтому я совершенно не настаиваю на своем определении. Есть ли толк от такого определения -- не знаю. Пока что я не вижу никаких аргументов против него, т.е. любые вещи, связанные с обыденным понятием информации ему не противоречат.
Вернее, я не увидел пока противоречия.


> > Сигнал - это всё то, что переносит информацию
> Т.е. это материальный носитель информации? Или порция информации?

> > , между сигналом и информацией хоть знак равенства ставь.
> Два термина для одного понятия - излишество, порция информации - почти согласен.

> > Она может кодироваться в вольтах, герцах, килограммах - в разных случаях по-разному.
> Правильно, информация как понятие обобщает разнородные параметры, содержит в себе "чистое" - информацию. Намеренно зацикливаю. Что общего в вольтах и герцах - необходимость перемещения информации от носителя к носителю, обработки в голове или компьютере, методы обработки - математические процедуры. Частный, но очень распространенный вид информации - число.

> > Например, информация о натяжении бегущей ленты получается в виде силы давления ленты на вал, который она огибает.
> А тут еще нет информации, есть сила натяжения. По предварительной модели мы предполагаем, что силу можно посчитать и получить формальное выражение (число), которое будет информацией (которую потом можно хранить, обрабатывать и тиражировать). А пока это "информационный ресурс" (в этой ветке вычитатал, словосочетание запомнилось).
Согласен почти со всем, но не с этим. Когда работаю, мне плевать на физическую составляющую сигнала, нужна только информация, и я отношусь к нему как к потоку информации. Сам регулируемый параметр (здесь удельное натяжение) - это тоже сигнал, причем содержащий первичную неискаженную информацию.

> > Потом преобразуется в аналоговый сигнал и передаётся в котроллер через АЦП.
> Контроллер сам запомнил или записал СИМВОЛ - это уже информация. Символ - битовая комбинация.
Не вижу различия между символьной формой, числовой, аналоговой и пр., как и особого различия между физическими носителями. Сигнал он и есть сигнал (сало - воно и е сало).

> > А работаю я давно, и в таком понятии информации уже закоренел.
> > И видите как трудно договориться.
> Абсолютно не согласен.

> > Если природу тоже понимать как систему, в которой возможны обратные связи, то стоит задуматься о том, что и в ней циркулирует лишь та информация, которая почему-либо не подавляется обратными связями.

> Если убрать "циркулирует информация", то интересный подход. Другими словами в природе существуют причинно-следственные связи, количественные характеристики этих связей (получаемых с некоторой точностью) называют информацией.

Ну, количественные оценки и расчеты - это ваш общий божок. Расчеты - это хорошо. Но принципиальная сторона как правило важнее и в большинстве случаев выясняется без расчетов.


> > > 1) Хотелось бы покороче и попроще;
> > вам и флаг в руки :)

> Мне кажется справедливым следующее определение:

> Информация физической системы - это необходимый и достаточный набор качественных и количественных характеристик, позволяющий однозначно воспроизвести с заданной точностью требуемую последовательность событий (или состояние физической системы).

Falcon!
Вы единственный в этой дискуссии хотя бы иногда демонстрируете здравые мысли.
Ваше определение хотя и не вполне верное, но вполне здравомыслимое.

> Какие будут возражения?

Особых возражений нет.

Ozes



> Говоря об информации, я более всего интересуюсь феноменом человеческого сознания.

Что такое информация Вы не знаете, но зато интересуетесь "феноменом человеческого сознания".
Это - типичная болтовня.

Уважаемый Кукуруза!

Разница между тем, что говорю я, и тем, что говорите Вы лишь в том,
что я говорю человеку о том, что он "дурак" прямо.
Вы же говорите, что "Все дураки", только делаете это "окольными путями".

> Информация несомненно "субъективна", поскольку только именно этот прибор способен ее прочитать. Я взял в кавычки, поскольку субъективность здесь не в смысле субъекта-человека, а в смысле некоторой системы-прибора. Если прибор -- человек, то она субективна в обычном смысле.

Уж не Вы ли тот самый прибор и есть???
Или это Гинзбург, или Менский, или академия???
Или власть???
Что это за "черный ящик"???

> Однако, довольно большая часть информации, обращающаяся в нашем мире, имеет вполне объективный характер, т.е. может тиражироваться и восприниматься многими субъектами. Именно с ней имеет дело классическая теория Шеннона.

Неужели???
Желтая пресса, что ли???

> > Я же считаю, что информация бывает известной человеку, или неизвестной, востребованной, или нет, но вообще она по сути объективна и никак не зависит от наличия или отсутствия человека.

"Есть человек - есть проблемы, нет человека - нет проблем."
Это нам уже знакомо.

> > Этим и отличаются наши с ним определения.

Здесь Вы правы.

Ozes


А пока это "информационный ресурс".
> Согласен почти со всем, но не с этим. Когда работаю, мне плевать на физическую составляющую сигнала, нужна только информация, и я отношусь к нему как к потоку информации. Сам регулируемый параметр (здесь удельное натяжение) - это тоже сигнал, причем содержащий первичную неискаженную информацию.
> Не вижу различия между символьной формой, числовой, аналоговой и пр., как и особого различия между физическими носителями. Сигнал он и есть сигнал (сало - воно и е сало).

Информация - она и есть информация. Именно потому, что мы замечаем независимось некоторого понятия от формы, физического носителя и пр., и имеет смысл смысл такое понятие выделить в "отдельность". Т.е. поставить его в один ряд с геометрической точкой, натуральным числом, пространственной прямой. А если выделили, да еще заметили, что понятие имеет количественную характеристику, то методы определения этого количества тоже нужны. Не во всякой задаче, но уж если говорить об энтропии (а с этого разговор и начался), то все надо детально оговорить.

> > > И видите как трудно договориться.
> > Абсолютно не согласен.
> Ну, количественные оценки и расчеты - это ваш общий божок. Расчеты - это хорошо. Но принципиальная сторона как правило важнее и в большинстве случаев выясняется без расчетов.

Множество простых задач механики решается без вычислений сил и ускорений, просто можно использовать законы сохранения. Но эти законы сами есть следствие проработанной теории. Далее себя почитайте: http://physics.nad.ru/newboard/messages/36534.html

По поводу обратной связи. Метрология рассматривает как методы измерения, так и методы индикации. В первом случае возникает информация (символьная), во втором - сигнал. Сигнал имеет значение да/нет, классический бит. Автоматические системы регулирования - сравнение с опорной величиной и выработка корректирующего воздействия - работают без использования символьной информации, если сигнал да/нет Вы не хотите называть информацией. Никаких противоречий.

Но уж если мы говорим об информации, то извините - надо определяться по полной программе.



> Вообще-то теория Шеннона не использует определения информации, но вполне успешно оперирует количеством оной.

...

> Несет в себе информацию ДНК или не несет -- это частности, зависящие от определений и терминов. Спорить по этому поводу, на мой взгляд, бессмысленно.
> Определения мы можем давать какие угодно.

Хотелось бы, чтобы описание понятия было для всех одно.



Дать конечное определение информации невозможно, поскольку это почти тоже самое, что дать определение таких вещей как сознание, "Я".

Для физики понятие информации, на мой взгляд, можно значительно сузить.
Для нас привычно выделять из мира некую его часть, которую можно называть физической системой. Система условно считается существующей объективно (независимо от наблюдателя) и изолированной от остального мира. Именно для таких систем формируются все физические законы.

Логично и определение информации ввести для физической системы.
Можно назвать такую информацию физ. информацией

Физ. информация системы - это совокупность всех сведений о системе, представленных в произвольном формализованном виде, используя которые в принципе можно экспериментально отличить эту систему от любой другой отличной системы.

Сведения о физ. системе в принципе можно записать на определенном языке так, чтобы ни одно высказывание не могло быть логически выведено из других. Т.е. так, чтобы информация не дублировалась.

Пусть в результате некоторых событий система перешла из состояния А в состояние Б. Тогда, говорим, что система потеряла информацию, если состояние Б в принципе может быть описано множеством высказываний Mб, которое является подмножеством Ма описания системы А и |Mб|<|Mа|.
При обратном соотношении Ма и Мб говорим, что система приобрела информацию.

Тогда сразу возникает два вопроса:
- имеет ли место в физической реальности потеря информации "в никуда" и ее приобретение из ничего;
- как расширить это определение до субъективного и вероятностного описания реальности КМ (в КМ не проходит часть формулировки "экспериментально отличить").

А вот тут работы непочатый край.


>
> Дать конечное определение информации невозможно, поскольку это почти тоже самое, что дать определение таких вещей как сознание, "Я".

> Для физики понятие информации, на мой взгляд, можно значительно сузить.
> Для нас привычно выделять из мира некую его часть, которую можно называть физической системой. Система условно считается существующей объективно (независимо от наблюдателя) и изолированной от остального мира. Именно для таких систем формируются все физические законы.

> Логично и определение информации ввести для физической системы.
> Можно назвать такую информацию физ. информацией

> Физ. информация системы - это совокупность всех сведений о системе, представленных в произвольном формализованном виде, используя которые в принципе можно экспериментально отличить эту систему от любой другой отличной системы.

> Сведения о физ. системе в принципе можно записать на определенном языке так, чтобы ни одно высказывание не могло быть логически выведено из других. Т.е. так, чтобы информация не дублировалась.

Непонятно, что такое "седения о системе" и совсем непонятно, что значит "принципе можно записать". Куда записать. Что значит записать. А прочитать можно? А вдруг запишем так, что прочитать неудается.


> А пока это "информационный ресурс".
> > Согласен почти со всем, но не с этим. Когда работаю, мне плевать на физическую составляющую сигнала, нужна только информация, и я отношусь к нему как к потоку информации. Сам регулируемый параметр (здесь удельное натяжение) - это тоже сигнал, причем содержащий первичную неискаженную информацию.
> > Не вижу различия между символьной формой, числовой, аналоговой и пр., как и особого различия между физическими носителями. Сигнал он и есть сигнал (сало - воно и е сало).

> Информация - она и есть информация. Именно потому, что мы замечаем независимось некоторого понятия от формы, физического носителя и пр., и имеет смысл смысл такое понятие выделить в "отдельность". Т.е. поставить его в один ряд с геометрической точкой, натуральным числом, пространственной прямой. А если выделили, да еще заметили, что понятие имеет количественную характеристику, то методы определения этого количества тоже нужны. Не во всякой задаче, но уж если говорить об энтропии (а с этого разговор и начался), то все надо детально оговорить.

> > > > И видите как трудно договориться.
> > > Абсолютно не согласен.
> > Ну, количественные оценки и расчеты - это ваш общий божок. Расчеты - это хорошо. Но принципиальная сторона как правило важнее и в большинстве случаев выясняется без расчетов.

> Множество простых задач механики решается без вычислений сил и ускорений, просто можно использовать законы сохранения. Но эти законы сами есть следствие проработанной теории. Далее себя почитайте: http://physics.nad.ru/newboard/messages/36534.html

> По поводу обратной связи. Метрология рассматривает как методы измерения, так и методы индикации. В первом случае возникает информация (символьная), во втором - сигнал. Сигнал имеет значение да/нет, классический бит. Автоматические системы регулирования - сравнение с опорной величиной и выработка корректирующего воздействия - работают без использования символьной информации, если сигнал да/нет Вы не хотите называть информацией. Никаких противоречий.

В каком-то смысле сигнал всегда понимался как информация, и считалось, что он остаётся симим собой при передаче из килограммов в вольты, из аналоговой в цифровую форму и т.д., поскольку его содержание (информация) при том не меняется. Напротив, я всё понимаю как информацию, включая само натяжение ленты, и даже неизменную кострукцию тракта, по кторому она бежит.

> Но уж если мы говорим об информации, то извините - надо определяться по полной программе.

Ну, тут-то Вы правы, только ошибаться нельзя, а то оставишь за бортом то, что потом станет главным. Трудно это.



> Физ. информация системы - это совокупность всех сведений о системе, представленных в произвольном формализованном виде, используя которые в принципе можно экспериментально отличить эту систему от любой другой отличной системы.
> Сведения о физ. системе в принципе можно записать на определенном языке так, чтобы ни одно высказывание не могло быть логически выведено из других. Т.е. так, чтобы информация не дублировалась.

> Непонятно, что такое "сведения о системе" и совсем непонятно, что значит "принципе можно записать". Куда записать. Что значит записать. А прочитать можно? А вдруг запишем так, что прочитать неудается.

У меня есть все сведения о системе, если я знаю как ее создать. Само собой при этом подразумевается знание всех действующих физических законов и всесильность.
Сведения - это мое лично знание и больше ничего.
Для того, чтобы их оценить я могу придумать некий язык для их формацизации и записать их к примеру на бумаге. Научив этому языку кого-то другого я могу передать сведения ему.

Все ваши вопросы касаются не определения информации о физической системе, а проблеме определения смысла информации. Мы считаем, что у информации есть некий смысл, если она неким замечательным для нас образом связана с другой имеющейся у нас информацией. Все что касается смысла информации сложно и туманно.
Смысл информации имеет значение для нас, в связи с нашей способностью познавать мир. В физике ему (пока, во всяком случае) нет места.


> В каком-то смысле сигнал всегда понимался как информация

Наверное, можно сказать, что сигнал часть потока информации, структурная единица, для выбранной модели ее нельзя или нежелательно дробить. Простейший сигнал определяет наличие или отсутствие некоторого признака. Натяжение ленты предполоагает количественную характеристику, ее нежелательно (хотя формально можно) дробить.

> , и считалось, что он остаётся симим собой при передаче из килограммов в вольты, из аналоговой в цифровую форму и т.д., поскольку его содержание (информация) при том не меняется.

Если по выбранной модели натяжение характеризуется числовым значением, то и при трансформации физических величин мы предполагаем неизменность этого числового значения и(!) оставляем неизменной размерность, формально используя переходные коэффициенты. В реальной системе вольты с килограммами, а информация только у нас в голове и рукописном тексте, это и определяет принципиальную субъективность информации. Информация не содержится в системе, мы ее формируем в голове.

> Напротив, я всё понимаю как информацию, включая само натяжение ленты, и даже неизменную кострукцию тракта, по кторому она бежит.

Описание системы, включая определение натяжения ленты, описание конструкции - вне всяких сомнений информация.

> > Но уж если мы говорим об информации, то извините - надо определяться по полной программе.
> Ну, тут-то Вы правы, только ошибаться нельзя, а то оставишь за бортом то, что потом станет главным. Трудно это.

Не ошибается только ...

> И видите как трудно договориться.
Абсолютно не согласен.


> Физ. информация системы - это совокупность всех сведений о системе,

Зачем нам ВСЕ сведения, если реально мы работаем в первую очередь с интегральными параметрами - температурой и пр.?

> представленных в произвольном формализованном виде, используя которые в принципе можно экспериментально отличить эту систему от любой другой отличной системы.

А если будем рассматривать пару идентичных систем?

> Сведения о физ. системе в принципе можно записать на определенном языке

И передать эти сведения другому, владеещему этим языком. Информация.

> так, чтобы ни одно высказывание не могло быть логически выведено из других.

А это не требования к аксиоматике, т.е. каким боком это приложить к описанию понятия информации?

> Т.е. так, чтобы информация не дублировалась.

А это не требования к техническим средствам передачи информации, о которых можно говорить уже ПОСЛЕ определения понятия?

> У меня есть все сведения о системе, если я знаю как ее создать.

Как создать атом?

> Сведения - это мое лично знание и больше ничего.

А информация не предполагает именно обмен? Т.е. сведения, вплоть до ощущений, это очень личное, информация что-то более коллективное.

> Для того, чтобы их оценить я могу придумать некий язык для их формацизации и записать их к примеру на бумаге. Научив этому языку кого-то другого я могу передать сведения ему.

А это не информация в чистом виде? Не определение, но существенная часть описания.

> Мы считаем, что у информации есть некий смысл, если она неким замечательным для нас образом связана с другой имеющейся у нас информацией.

А это не вторая существенная часть описания свойств информации?

> Все что касается смысла информации сложно и туманно.
> Смысл информации имеет значение для нас, в связи с нашей способностью познавать мир.

А это не третья?

> В физике ему (пока, во всяком случае) нет места.

Ему - это смыслу? (Шутка).



> Зачем нам ВСЕ сведения, если реально мы работаем в первую очередь с интегральными параметрами - температурой и пр.?

Речь идет о полной информации системы (подобно полной энергии системы).
Если рассматривать только часть сведений системы, то не складывается приведенное дальше определение что такое потеря информации или ее приобретение системой (Mб подмножество Mа...). Поэтому слово ВСЕ использовано намеренно.

> > представленных в произвольном формализованном виде, используя которые в принципе можно экспериментально отличить эту систему от любой другой отличной системы.

> А если будем рассматривать пару идентичных систем?

Рассматривать мы можем все что угодно. А вот, сказать, что мы собрали ВСЕ сведения о системе мы можем тогда, когда эти сведения позволяют нам отличить эту систему от любой другой, путем наблюдения за поведением этих систем в экспериментах. Т.е. эта фраза в определении нужна для того, чтобы доопределить что такое ВСЕ сведения.

> > Сведения о физ. системе в принципе можно записать на определенном языке

> И передать эти сведения другому, владеещему этим языком. Информация.

Слово информация в языке имеет массу значений. "Сведения" - это информация в сознании субъекта, но не информация физической системы (физ. информация). Я задался целью определить только что такое информация физической системы (физ. информация). Информация физ. системы существует подобно энергии объективно и изменяется независимо от наличия наблюдателя (пока не учитываем СТО).


> > так, чтобы ни одно высказывание не могло быть логически выведено из других.

> А это не требования к аксиоматике, т.е. каким боком это приложить к описанию понятия информации?

Я не против. Это требование можно снять. Оно нужно для того, чтобы проще определить что такое приобретение и потеря информации. Там ему и место.

> > Т.е. так, чтобы информация не дублировалась.

> А это не требования к техническим средствам передачи информации, о которых можно говорить уже ПОСЛЕ определения понятия?

О технических средствах речь не идет. "Дублировалось" - это просто краткое интуитивно понятное повторение требования о логической невыводимости одих утверждений из других. Если кто грамотен в дискретной математике, может подобрать лучшие слова я не против.

> > У меня есть все сведения о системе, если я знаю как ее создать.

> Как создать атом?

Если я всесилен и могу создавать все что пожелаю почему я не могу создать атом на основании о всей информации о нем?
В реальности это невозможно, но не факт, что это запрещает нам использовать подобную мысленную схему в определении информации. Мы действительно при этом игнорируем всю квантовую механку разом. Однако, я и сам признался, что как учесть в определении КМ я не знаю. У меня есть варианты, но они слишком далеко погрязли и моих собственных измышлениях и никому не будут понятны (и интересны).

> > Сведения - это мое лично знание и больше ничего.

> А информация не предполагает именно обмен? Т.е. сведения, вплоть до ощущений, это очень личное, информация что-то более коллективное.

Это совсем другая история. Я в данном посте задался целью только определить информацию в физике.

> > Для того, чтобы их оценить я могу придумать некий язык для их формацизации и записать их к примеру на бумаге. Научив этому языку кого-то другого я могу передать сведения ему.

> А это не информация в чистом виде? Не определение, но существенная часть описания.

Информации в чистом виде быть не может. Информация - это монстр из нашего субективного осознания мира. Ей нельзя придать общий объективный смысл. Таково мое убеждение на данный момент.

> > Мы считаем, что у информации есть некий смысл, если она неким замечательным для нас образом связана с другой имеющейся у нас информацией.

> А это не вторая существенная часть описания свойств информации?

Типа того. Но физика здесь уже рядом не стояла.

> > Все что касается смысла информации сложно и туманно.
> > Смысл информации имеет значение для нас, в связи с нашей способностью познавать мир.

> А это не третья?

Это все можно обсуждать но долго.

> > В физике ему (пока, во всяком случае) нет места.

> Ему - это смыслу? (Шутка).

Именно :)
Весь визический мир кроваб и бессмысленен. И только мы иные. Этож надо было так попасть!



> > Почему бы не сравнить информацию с координатами некой многомерной координатной системы?

> Почему бы и нет? Всякий независимый набор переменных можно представить в виде точки в многомерном пространстве...

> Тут вопрос в другом! У нас с Вами примерно одинаковый взгляд на понятие "информация". Но qqruza понимает под этим совсем другое :
Тут у нас дискуссии не получиться - мы с Вами рассматриваем информацию как некоторое св-во независящее от сознания.
> не состояние системы, а символьное кодирование известной части этого состояния системы. Он считает, что информации без человека не существует и она субъективна.
Я с ним на эту тему дискутировал но к сожалению не нашёл весомых аргументов - например искусственный интеллект был бы таким аргументом.
> Я же считаю, что информация бывает известной человеку, или неизвестной, востребованной, или нет, но вообще она по сути объективна и никак не зависит от наличия или отсутствия человека.
> Этим и отличаются наши с ним определения.
Но Вы ему это не докажете -он формально прав.

Вспоминается байка на эту тему. Один мудрец утверждает султану досаждённому мухами, что там где нет людей нет и мух. Султан ловит мудреца на слове, выезжает с ним на конях в открытую степь ждёт пока на шею коня не садиться муха и победно смотрит на мудреца спрашивая его считает ли мудрец и сейчас себя правым.На что мудрец спокойно отвечает вопросом на вопрос:
А мы что не люди?

Qqruza рассматривает информацию как нечто зависящее от метода приёма - есть приёмник способный дешефрировать сигнал -есть и информация - разрушая приёмник разрушается и информация.Самое странное в его логике - ремонтируя приёмник мы восстанавливаем информацию в принимаемом сигнале.
Скорее всего он рассматривает информацию локально.
Не знаю как для Вас а для меня информация существует всегда и всюду. Она просто есть.Есть ли доступ к этой информации и есть ли соответствующие дешифраторы позволяющие понять эту информацию -дело десятое.
С уважением, До.


> > > Предлагаю, для начала, сформулировать

> > > О П Р Е Д Е Л Е Н И Е И Н Ф О Р М А Ц И И
> > > --------------------------------------------

> > Какую информацию Вы имеете ввиду?

> Любую. Абстрактную. Мы говорим про законы сохранения энергии не уточняя - какой.
Хорошо.Тогда информация есть одно из св-в материи как энергия, импульс, заряд итд.
> > То что является информацией для одного не является оной для другого.

> То, что является вороной для одного, не может быть собакой для другого :)
Тут мы расходимся в наших взглядах. Предположим Вы запросили перевод какого нибудь знаменитого писателя или писательницы как Агата Кристи. Произошло недоразумение и Вам прислали оригинал собраний сочинений на английском. Если
Вы в английском волокёте, это не беда а если нет? Кол-во информации в книгах на английском не убавилось, тем не менее понять смысл написанного становиться вдруг тяжело.
Или пример который часто приводит Qqruza - без соответствующего приёмника принять информацию мы не в состоянии. А дальше идёт интерпритация. Для него отсутствие принятие информации есть отсутствие самой информации, для меня -лишь
факт того, что в данный момент информация недоступна.
> Информация может быть ненужной, неиспользуемой - от этого она не перестанет быть собой...
Согласен.
> > Со свойствами проще(-:.
> > Например я утверждаю что информация подлежит з-нам сохранения.
> > В состоянии переходить из одной ф-мы в другую.

> Пока не определимся, что это такое, как мы этио понимаем, выводить законы мягко говоря странно...
Попробуйте определить такое св-во материи как наличие энергии. Особенно если мы говорим о энергии заключённой в массе покоя.
> Как Вы собираетесь их доказывать, или хотя бы проверять?
Методом от обратного. Доказать невозможность полного уничтожения информации просто. Достаточно востановить эту информацию или хотя бы часть этой информации. Существует столько косвенных методов востановления информации, что иногда мне кажется что уничтожение информации ещё сложнее чем её добытие.
Помните -шила в мешке не утаишь?

Например существуют направленные микрофоны расположенные на спирали.
Специальные программы преобразуют звук принятый микрофонами в цветные пятна причём яркость пятна связанна напрямую с интенсивностью звука. Для чего это нужно? Ну в автомобильной промышленности таким образом ищут источники звука-дребезг, грохот, скрип итд. В компьютере автомобиль снимается на камеру и одновременно на этот автомобиль накладываются цветные пятна вызванные звуком.
Информация казалось бы потерянная навсегда успешно используется для оптимизации деталей машин. А в самолётостроении эти источники(в основном турбины) компенсируются динамиками работающими в противофазе к рёву тех же турбин.Но я как всегда отвлёкся от темы.

С уважением До.


> Qqruza рассматривает информацию как нечто зависящее от метода приёма - есть приёмник способный дешефрировать сигнал -есть и информация - разрушая приёмник разрушается и информация.Самое странное в его логике - ремонтируя приёмник мы восстанавливаем информацию в принимаемом сигнале.
Позволю себе прокоментировать.
Если вы способны отремонтировать приемник, то по-существу, информация не потеряна. Вам известна конструкция приемника, а значит вы знаете, как извлечь информацию. Если вам конструкция неизвестна, то вы можете догадаться о технологии, изучая сломанный приемник. При этом вы используетет знания, полученные ранее. Если вы совершенно ничего не знаете, то догадка, что некий кусок материи содержит записанную на него информацию и способ расшифровки -- это просто новое открытие.
Подумайте над тем, можно ли строго доказать, что данная расшифровка единственная? Он может быть удачной, похожей на правду, и т.п. Но абсолютной уверенности никогда не будет.

> Скорее всего он рассматривает информацию локально.
> Не знаю как для Вас а для меня информация существует всегда и всюду. Она просто есть.Есть ли доступ к этой информации и есть ли соответствующие дешифраторы позволяющие понять эту информацию -дело десятое.
> С уважением, До.


> Речь идет о полной информации системы (подобно полной энергии системы).
> Если рассматривать только часть сведений системы, то не складывается приведенное дальше определение что такое потеря информации или ее приобретение системой (Mб подмножество Mа...). Поэтому слово ВСЕ использовано намеренно.

> > > Сведения о физ. системе в принципе можно записать на определенном языке
> Информация физ. системы существует подобно энергии объективно и изменяется независимо от наличия наблюдателя (пока не учитываем СТО).

> > > Для того, чтобы их оценить я могу придумать некий язык для их формацизации и записать их к примеру на бумаге. Научив этому языку кого-то другого я могу передать сведения ему.

> Информация - это монстр из нашего субективного осознания мира. Ей нельзя придать общий объективный смысл. Таково мое убеждение на данный момент.

> > > Все что касается смысла информации сложно и туманно.

Я "надергал" цитат, наверное не очень корректно. Но действительно пока туманно.
1. Если информация объективна, то где она храниться до ее передачи исследователю?
2. Насколько энергия (полная или часть ее) есть объективное понятие? В каких единицах природа энергию измеряет?
3. Координаты, как информация о положении тела в пространстве тоже объективны?
Можно ли привести пример потери или приобретения информации?

> > > Смысл информации имеет значение для нас, в связи с нашей способностью познавать мир.

С этим абсолютно согласен.


> > Если мы в нём разберёмся, мы станем величайшими мудрецами двуногой расы. Не буду угадывать - лучше сразу выкладывайте, что Вы по этому вопросу приготовили. :)

Ув. Дил. Я смотрю, Вы любите учитывать субъективизм исследователя. Но ведь информация для механической системы просто обратна энтропии, которая равна логарифму от статистического веса, который равен числу механических степеней свободы исследуемого объекта. Естественно, как и в любой другой сфере, мы не можем точно определить физическую аксиоматику. То есть, что считать степенью свободы, а что не считать. Но любое наше представление, даже самое примитивное, даст уже хорошее приближение к изучаемому явлению. Ну как закон Ньютона и закон Эйнштейна. Лишь при очень точных измерениях можно уловить лёгкое различие. Так что грубо всё определено уже давно. Нам остаётся только блох выискивать. :)


> > Кто, или что - не важно. Важна потенциальная возможность!
> Как вы будете доказывать принципиальную возможность в каком-нить конкретном случае?

Странный вопрос!
Всякое доказательство, проведенное для общего случая, автоматически действует в любом конкретном случае. Любой закон физики - обобщение конкретных случаев. Если в каком-то конкретном случае закон перестает работать - значит он неточен...


> > Я же считаю, что информация бывает известной человеку, или неизвестной, востребованной, или нет, но вообще она по сути объективна и никак не зависит от наличия или отсутствия человека.
> > Этим и отличаются наши с ним определения.
> Но Вы ему это не докажете -он формально прав.

А я пробовал доказать это тем, что если бы информация унмчтожалась с уничтожением приемника, то можно было бы ДИСТАНЦИОННО уничтожать информацию, причем мгновенно, независимо от расстояния.
Но это нарушило бы принцип конечной скорости взаимодействия...

С уважением, Falcon.


Уважаемый Озес!

Что же Вы опять только ругаетесь...
Высказали бы для разнообразия свою позицию в этом вопросе. Что лично Вы понимаете под словом "информация"? Объективна она, или субъективна? И т.п.

Или Вам не интересна тема? Тогда зачем попусту интернет сотрясать? :)


> > > У меня есть все сведения о системе, если я знаю как ее создать.
> > Как создать атом?

Предлагаю использовать несколько другой термин. Не "создать систему", а смоделировать...
Иными словами, мы обладаем информацией о физической системе, если способны смоделировать (предсказать) ее поведение вперед во времени с заданной точностью.
В этом смысле всякая модель атома и есть созданный руками атом. Вот только насколько он соответствует действительности...


> > > Я же считаю, что информация бывает известной человеку, или неизвестной, востребованной, или нет, но вообще она по сути объективна и никак не зависит от наличия или отсутствия человека.
> > > Этим и отличаются наши с ним определения.
> > Но Вы ему это не докажете -он формально прав.

> А я пробовал доказать это тем, что если бы информация унмчтожалась с уничтожением приемника, то можно было бы ДИСТАНЦИОННО уничтожать информацию, причем мгновенно, независимо от расстояния.
> Но это нарушило бы принцип конечной скорости взаимодействия...

А вы подробней опишите, что именно вы уничтожаетет и как.



> 1. Если информация объективна, то где она храниться до ее передачи исследователю?

Не понимаю вопрос. Информация (та что была в определении) - это неотъемлемая часть физ. системы. Она не может быть передана исследователю. Исследователя мы намеренно исключаем из рассмотрения, чтобы получить возможность оценивать информацию объективно. Исключив исследователя мы пользуемся в определении интуитивным понятием "все сведения".

> 2. Насколько энергия (полная или часть ее) есть объективное понятие? В каких единицах природа энергию измеряет?

По большому счету и энергии нельзя дать полностью объективное определение. По моему убеждению идеально объективных (существующих независимо от нас)
вещей в природе вообще не может быть. Однако исследовать мир все же как-то надо? Вот мы и принимаем определенные не совсем соответствующие действительности допущения, и тогда получаем модель мира в которой есть место объективности. Только поступая так же и с понятием информации можно получить нечто пригодное для исследований. Субъективные рассуждения удаются пока только будисским монахам. Причем их никто не понимает кроме монахов :). С другой строны идеально объективные вещи - это тоже несбыточная иллюзия.

> 3. Координаты, как информация о положении тела в пространстве тоже объективны?
> Можно ли привести пример потери или приобретения информации?

Привести корректный пример из физики нельзя, поскольку мы не знаем подноготной физических процессов в смысле их обратимости и необратимости. Нет ниодного явления, про который мы с уверенностью могли бы сказать обратимо оно или нет.
Обратимыми или необратимыми являются только наши модели.
Определение, которое я пытался сформулировать по сути ориентировано на понятия обратимости и необратимости. Потеря информации имеет место когда с ситемой происходит нечто после чего невозможно установить ее исходное состояние, даже обладая совершенно полным знанием о конечном состоянии и физических законах.
Приобретение информации происходит тогда, когда с системой происходит нечто, что не позволяет по ее исходному состоянию установить конечное даже обладая совершенно полным знанием о начальном состоянии и физических законах.

> > > > Смысл информации имеет значение для нас, в связи с нашей способностью познавать мир.

> С этим абсолютно согласен.

Наиболее наглядная модель разума в этом контексте из всех, что мне приходилось встречать на этом форуме: разум - это самоадаптирующийся архиватор (rar, zip).
Разум рассматривает инфорамцию вселенной и стремиться как можно более компактно представить ее в своем мозгу, используя (как и архиватор) симметрии и закономерности мира.
Архиватору так же как и разуму можно передать дополнительные сведения о архивируемой информации и это поможет ему действовать более эффективно.
Например, если архиватору указать, что архивируемый массим представляет собой русский текст, то он сможет сархивировать данные гораздо плотнее специализированным для текстов алгоритмом.
Аналогично, если мне сообщают, что E=mc^2, то эти дополнительные сведения о архивируемом моим мозгом мире позволяют мне гораздо компактнее упаковать в мозгу другие разрозненные сведения о вседенной.



> > > Кто, или что - не важно. Важна потенциальная возможность!
> > Как вы будете доказывать принципиальную возможность в каком-нить конкретном случае?

> Странный вопрос!
> Всякое доказательство, проведенное для общего случая, автоматически действует в любом конкретном случае. Любой закон физики - обобщение конкретных случаев. Если в каком-то конкретном случае закон перестает работать - значит он неточен...
В некоторой комнате зажигали лампочку несколько раз в течение дня. Существует ли принципиальная возможность определить в какие моменты лампочка зажигалась и в какие гасла по анализу поглощения света стенами?

Имеется закрытый чемодан с документами. В чемодане бомба, которая через час взорвется. Чтобы отключить механизм бомбы, нужно с клавиатуры ввести один из дух множителей числа, написанного на крышке чемодана. Число имеет примерно 10000 десятичных знаков. Существует ли принципиальная возможность прочитать документы?

Существует ли принципиальная возможность измерить координату электрона с точностью, превышающей комптоновскую длину?

Существует ли принципиальная возможность измерить импульс электрона с произвольной точностью?

Мне хотелось бы услышать общее определение, что такое "принципиальная возможность".


> Но ведь информация для механической системы просто обратна энтропии, которая равна логарифму от статистического веса ...

Если это определение информации, то

> Нам остаётся только блох выискивать. :)

Думаю, что Вы просто поторопились. Одним числом можно представить количество информации, но не саму информацию.


> По большому счету и энергии нельзя дать полностью объективное определение. По моему убеждению идеально объективных (существующих независимо от нас)
> вещей в природе вообще не может быть.

Знаком с таким философским течением, но совершенно его не разделяю, не принимаю.

> Однако исследовать мир все же как-то надо? Вот мы и принимаем определенные не совсем соответствующие действительности допущения, и тогда получаем модель мира в которой есть место объективности. Только поступая так же и с понятием информации можно получить нечто пригодное для исследований.

Информация все же связана с моделью? Т.е. она субъективна?

> Наиболее наглядная модель разума в этом контексте из всех, что мне приходилось встречать на этом форуме: разум - это самоадаптирующийся архиватор (rar, zip).

Не самый сложный алгоритм. Кстати Шеннон как раз и занималься анализом символьной информации, вполне субъективной, исходящей от человека.


> > > > Все что касается смысла информации сложно и туманно.

> Я "надергал" цитат, наверное не очень корректно. Но действительно пока туманно.
> 1. Если информация объективна, то где она храниться до ее передачи исследователю?
> 2. Насколько энергия (полная или часть ее) есть объективное понятие? В каких единицах природа энергию измеряет?
> 3. Координаты, как информация о положении тела в пространстве тоже объективны?
> Можно ли привести пример потери или приобретения информации?

Речь здесь не только об информации но и об объективности и субъективности.
Я (как и Игнорант) утверждаю, что информация субъективна. Что значит, что информация объективна? Вероятно то, что всем субъектам она доступна и одинакова. Или все имеют "принципиальную возможность" ее получить. Хорошо.
Чем говорить об информации, заключающейся в формулировках законов природы, будем лучше говорить об информации, получаемой в результате непосредственных измерений. Законы -- штука заведомо более сложная, чем простые величины типа положений тел в пространстве. Будем измерять координаты.
Если говорить о координатах Луны, то, пожалуй, все люди, измеряющие ее положение на небе, получат одинаковые результаты. Поэтому вполне можно сказать, что состояние луны одинаково для всех ее наблюдателей.
Все неопределенности и неточности могут появиться только при учете квантовых свойств как измеряемого объекта, так и других составляющих процесса измерения, например, прибора или ячеек памяти, в которые записываются результаты измерений.
Будем вместо Луны измерять координаты электрона. Для этого электрон освещается светом и отраженные фотоны ловятся объективами и попадают на фотопленку.
Пусть у нас будет два наблюдателя с фотоаппаратами.
Каждый фотон, попавший в объектив дает определенную информацию о координате электрона. Если фотон достаточно длинноволновый, то это весьма грубое измерение дает мало информации о координате фотона. Но каждый следующий фотон дает дополнительную информацию и в результате у каждого наблюдателя будет некоторая информация о траектории движения электрона.
Эти процессы рассеяния вполне расчитываются и можно получить траекторию движения, вычисленную каждым наблюдателем по своим данным. Очевидно, что у разных наблюдателей получатся разные траектории. Несложно расчитать также вероятность отклонений этих траекторий друг от друга. Большие отклонения возможны, но маловероятны.
В этом примере можно заметить, что эти два наблюдателя могут взять свои наблюдения, зафиксированные на пленке и их сложить, получив при этом "более объективную" информацию об электроне.
Предположим, однако, что нет фотопленки, а вся информация фиксируется только памятью самих наблюдателей. Тогда наблюдатели могут поделиться своими результатами на словах, благо они языком владеют. Но здесь и начинается субъективность. Одному наблюдателю не понравятся данные другого (они не укладываются в его убеждения) и он может сказать другому: да ты в задницу смотрел, а не в экран.
Что же нам делать с объективными данными измерений? Оказывается их просто нет. Фотопленка только иллюзия объективности, т.к. можно заявить, что она подделана.
Можно сказать, что если такое начинается, то кончается наука. Физика подобными разборками не занимается.
Однако, как я наблюдаю и на этом форуме, и в истории физики, физика (или физики) время от времени все-таки занимаются подобными разборками.
Можно сказать, что это скорее примеры из психологии, чем из физики. Да, так и есть. Физика до сих пор психологией не занималась. Однако пример с получением разной информацией при параллельном измерении одного и того же объекта вполне физичен и демонстрирует (на мой взгляд) природу субъективизма, а также демонстрирует, что он неизбежен (если, конечно, оставаться в рамках КМ. Альтернативы КМ меня лично не устраивают и я предпочитаю доверять КМ, а не непроверенным альтернативам).

Далее что можно из этого примера получить? Если считать память (например,фотопленку) квантовым объектом, находящемся в окружении, то можно описать эволюцию записей в памяти. Результат этого довольно необычен. Память постепенно стирается, что сказывается на самом измеренном объекте.
Утверждение такое.
Известно, что при измерении квантового объекта мы получаем информацию о его состоянии, но и сам объект переходит в состояние, скоррелированное с полученной информацией (редукция). Если информация, записанная в памяти эволюционирует, частично стирается, то информация после процесса эволюции опять должна быть скоррелирована с состоянием объекта. Это означает, что состояние объекта связано с судьбой информации о нем, записанной в какой-то памяти. Это кажется очень странным, т.к. объект и запись в памяти о его состоянии могут находиться далеко и никак не взаимодействовать в течение большого промежутка времени. Но нет ничего удивительного в этом явлении, полностью аналогичном эффекту ЭПР, когда измерение одной из частей запутанного состояния мгновенно изменяет состояние другой части.

ЗЫ. Я везде здесь подразумевал, что КМ верна и ЭПР -- экспериментальный факт. Если есть возражения против стандартной квантовомеханической интерпретации ЭПР, то просьба не высказываться против того, что я здесь написал. В других теориях все будет по-другому и нет смысла спорить о приведенных выводах, основываясь при этом на отличных от КМ посылках.


> Уважаемый Озес!

> Что же Вы опять только ругаетесь...
> Высказали бы для разнообразия свою позицию в этом вопросе. Что лично Вы понимаете под словом "информация"? Объективна она, или субъективна? И т.п.

Физическая информация, безусловно. объективна.
И, подобно законам сохранения массы, энергии и т.д., можно сформулировать закон сохранения "физической информации".

"Физическая информация" не появляется и не исчезает, она лишь преобразуется из одного вида информации в другой.

И, если пользоваться терминологией форума, то если у нас ячейка памяти занята, то у нас есть информация о том, что она занята.
Если ячейка памяти свободна, то у нас есть информация о том, что она свободна.
А если у нас нет информации о ячейке памяти, то у нас есть информация о том, что этой информации у нас нет.
А если мы компьютер выбросили на свалку, то вместо прежней информации, содержащейся в компьютере, у нас появляется информация о том, что мы компьютер выбросили на свалку и т.д.

Что же касается позиции Менского по поводу информации, то могу сказать лишь то, что всегда проще отказаться от каких-либо действий, сославшись на невозможность их выполнения, чем выполнить сами действия.
Разумеется, современная физика требует гораздо более развитых систем исследования процесссов, чем прямые измерения объектов.
Но такие системы уже давно существуют.
Есть численное моделирование, есть комплексная диагностика, есть взаимозависимые процедуры исследований.
Какие проблемы???
Разумеется, гораздо проще смотреть на эксперимент "вытаращенными глазами", и утверждать, что сделать определенные выводы по содержанию этого эксперимента невозможно, по причине "субъективности восприятия".
Но грамотный физик всегда найдет способ сделать информацию объективной.
В отличие от тех, у кого эта информация "субъективна", и не поддается объективному анализу.

Ozes

> Или Вам не интересна тема? Тогда зачем попусту интернет сотрясать? :)



> > > Этим и отличаются наши с ним определения.
> > Но Вы ему это не докажете -он формально прав.

> А я пробовал доказать это тем, что если бы информация унмчтожалась с уничтожением приемника, то можно было бы ДИСТАНЦИОННО уничтожать информацию, причем мгновенно, независимо от расстояния.
> Но это нарушило бы принцип конечной скорости взаимодействия...
По видимому Qqruza это тоже замечает, по крайней мере он теперь требует не только уничтожения приёмника но и уничтожения знания о его устройстве и принципа работы. Далее он не считает приёмник уничтоженным если его можно каким то образом отремонтировать пусть даже и случайным образом.И он требует гарантии отсутствия конструкции которая может выполнить роль приёмника и способная также детектировать посланный этому приёмнику сигнал.
В общем получается пока существует сознание и пока вероятность спонтанного появления приёмника не равна нулю уничтожение информации невозможно.
Странно но мы с Вами утверждаем очень даже похожее.

На счёт мгновенной скорости перпедачи информации есть такой пример. Монетка подбрасывается в воздух, после падения не проверяя то что выпало распиливаем монетку вдоль и берём верхнюю часть монетки. Удаляемся от второй половинки монеты лежащей на полу на большое расстояние. Проверяем что выпало на верхней половинке монетки и в тот же момент получаем информацию о том что показывает монетка оставшеяся лежать на полу. С какой скоростью распространяется тогда эта информация?
Я утверждаю что информация не распространяется с какой либо скоростью -она просто есть всегда и всюду. Если мы считываем информацию со скоростью меньшей или равной скорости света то это наши личные проблемы.
С уважением, До.


> > > > Кто, или что - не важно. Важна потенциальная возможность!
> > > Как вы будете доказывать принципиальную возможность в каком-нить конкретном случае?

> > Странный вопрос!
> > Всякое доказательство, проведенное для общего случая, автоматически действует в любом конкретном случае. Любой закон физики - обобщение конкретных случаев. Если в каком-то конкретном случае закон перестает работать - значит он неточен...
> В некоторой комнате зажигали лампочку несколько раз в течение дня. Существует ли принципиальная возможность определить в какие моменты лампочка зажигалась и в какие гасла по анализу поглощения света стенами?

> Имеется закрытый чемодан с документами. В чемодане бомба, которая через час взорвется. Чтобы отключить механизм бомбы, нужно с клавиатуры ввести один из дух множителей числа, написанного на крышке чемодана. Число имеет примерно 10000 десятичных знаков. Существует ли принципиальная возможность прочитать документы?

> Существует ли принципиальная возможность измерить координату электрона с точностью, превышающей комптоновскую длину?

> Существует ли принципиальная возможность измерить импульс электрона с произвольной точностью?

> Мне хотелось бы услышать общее определение, что такое "принципиальная возможность".

Господин qqruza!

А откуда следует, что сформулированные Вами вопросы следует формулировать и решать именно так, как это сделали Вы.
Приведу пример.
Каждый из нас не задумываясь скажет, что "единица умноженная на единицу дает единицу", то есть 1*1 = 1.
Теперь потребуем, прежде чем умножить, "разделить единицу на три и умножить на три".
Получим 1 / 3 = 0.33(3); 0,33(3) * 3 = 0.99(9); 0.99(9) * 1 = 0.99(9).
В результате оказывается, что мы вообще не можем выполнить умножение "единицы на единицу" в рамках указанной процедуры, поскольку для этого нам требуется выполить бесконечное число действий.
Аналогично и в квантовой механике.
Вы заставляете нас выполнять все действия в рамках квантовомеханических представлений, как будто других методов выполнения этих действий нет и быть не может.
И после этого утверждаете, что, поскольку эти действия невыполнимы в указанных рамках, то они невыполнимы вообще.
А кто сказал, что их вообще следует выполнять???
Разве нет других способов и физических направлений, кроме квантовомеханических?

И виновата в этом не физика, а наше представление о физике.
Неужели "свет клином сошелся" на квантовой механике и ее постулатах???
Неужели никакой другой физики уже просто не существует???

Может быть "физическую субъективность" следует искать в нас самих, а не в физике???
И, может быть, "физическую невозможность" следует, все-таки, понимать, а не постулировать???

Ozes



> > А я пробовал доказать это тем, что если бы информация унмчтожалась с уничтожением приемника, то можно было бы ДИСТАНЦИОННО уничтожать информацию, причем мгновенно, независимо от расстояния.
> > Но это нарушило бы принцип конечной скорости взаимодействия...

> А вы подробней опишите, что именно вы уничтожаетет и как.
Извините что встреваю в Ваш спор, но это как говорится с больной головы на здороую. Если я правильно понял именно Вы высказали предположение о том что уничтожение приёмника, его схемы и знания о его принципа, в конечном итоге уничтожение сознания которое в состоянии придумать такой приёмник(моя интерпритация того что Вы писали ранее-поправьте меня если я Вас переврал)ведёт к уничтожению информации которая могда бы быть принята этим приёмником.
Так что этот вопрос направлен по моему мнению к Вам.
С уважением До.



> > > > Кто, или что - не важно. Важна потенциальная возможность!
> > > Как вы будете доказывать принципиальную возможность в каком-нить конкретном случае?
Вмешаюсь если Вы не против.
> В некоторой комнате зажигали лампочку несколько раз в течение дня. Существует ли принципиальная возможность определить в какие моменты лампочка зажигалась и в какие гасла по анализу поглощения света стенами?
Отрицать эту возможность мы не имеем права - значит существует.
Кто гарантирует нам что обои на стенах не сделаны чувствительными на такие вспышки?
> Имеется закрытый чемодан с документами. В чемодане бомба, которая через час взорвется. Чтобы отключить механизм бомбы, нужно с клавиатуры ввести один из дух множителей числа, написанного на крышке чемодана. Число имеет примерно 10000 десятичных знаков. Существует ли принципиальная возможность прочитать документы?
Естественно существует - в многомировой Вселенной найдётся обязательно мир, в котором эту бомбу обезвредили в срок меньший часа. Причём в некоторых мирах чемодан не открывался а вырезалось отверстие через которое бомба и обезвреживалась(-:.
> Существует ли принципиальная возможность измерить координату электрона с точностью, превышающей комптоновскую длину?
Мне не знаком этот приём для конкретного электрона. Но электрон нельзя отличить от другого электрона так что есть идейка -см. ниже.
> Существует ли принципиальная возможность измерить импульс электрона с произвольной точностью?
Нет, ... но если электронов много то можно применить метод перехода количества в качество. Дело в том что з-н сохранения импульса требует неизменения скорости замкнутой системы содержащей множество электронов. Следовательно хотя импульс каждого электрона и "размыт" но это "размытие" с увеличением кол-ва электронов расти не может.
Есть и другой метод - метод Монте Карло.
А точность измерения растёт с кол-вом измерений(-:.
> Мне хотелось бы услышать общее определение, что такое "принципиальная возможность".
В природе всё что не запрещено- разрешено.
С уважением До.


> > > А я пробовал доказать это тем, что если бы информация унмчтожалась с уничтожением приемника, то можно было бы ДИСТАНЦИОННО уничтожать информацию, причем мгновенно, независимо от расстояния.
> > > Но это нарушило бы принцип конечной скорости взаимодействия...

> > А вы подробней опишите, что именно вы уничтожаетет и как.
> Извините что встреваю в Ваш спор, но это как говорится с больной головы на здороую. Если я правильно понял именно Вы высказали предположение о том что уничтожение приёмника, его схемы и знания о его принципа, в конечном итоге уничтожение сознания которое в состоянии придумать такой приёмник(моя интерпритация того что Вы писали ранее-поправьте меня если я Вас переврал)ведёт к уничтожению информации которая могда бы быть принята этим приёмником.
> Так что этот вопрос направлен по моему мнению к Вам.
> С уважением До.
Я приводил пример, когда потеря ключа фатальна для расшифровки сигнала, несущего информацию. Человек зашифровал текст сообщения с помощью известного ему ключа и умер. Все, текст не может быть расшифрован. В принципе.
Информация уничтожена "дистанционно". Бумажка с шифровкой здесь, а человек помер где-то далеко. Пока не знали, что он помер, бумажка содержала информацию, которую надеялись расшифровать, если человек пришлет ключ. Потом пришло сообщение, что чел помер, а ключа не оставил.


> > Qqruza рассматривает информацию как нечто зависящее от метода приёма - есть приёмник способный дешефрировать сигнал -есть и информация - разрушая приёмник разрушается и информация.Самое странное в его логике - ремонтируя приёмник мы восстанавливаем информацию в принимаемом сигнале.
> Позволю себе прокоментировать.
Ваше право которое я приветствую.
> Если вы способны отремонтировать приемник, то по-существу, информация не потеряна. Вам известна конструкция приемника, а значит вы знаете, как извлечь информацию. Если вам конструкция неизвестна, то вы можете догадаться о технологии, изучая сломанный приемник. При этом вы используетет знания, полученные ранее. Если вы совершенно ничего не знаете, то догадка, что некий кусок материи содержит записанную на него информацию и способ расшифровки -- это просто новое открытие.
Я часть уже ответил F1, вообщем по Вашему надо уничтожать сознание -лишь тогда имеем гарантию того что информация уничтоженна безвозвратно. Но наше сознание базируется на органике которая в свою очередь образовалась из неорганики миллиарды лет назад. Следовательно уничтожение сознания недостаточно чтобы уничтожить информацию, надо уничтожить возможность возникновения сознания, т.е. лишь уничтожение материи ведёт нас к полнейшему уничтожению информации.
Но это то что я утверждал всё время.

> Подумайте над тем, можно ли строго доказать, что данная расшифровка единственная? Он может быть удачной, похожей на правду, и т.п. Но абсолютной уверенности никогда не будет.
Тут Вы правы. Уверенности нет принципиально. Даже один и тот же ответ можно интерпритировать по разному. Но изменяется информация вследствии интерпритации оной субъектом?
Я утверждал что информацию невозможно уничтожить - КМ подтверждает это утверждение -создавая копию с квантового объекта мы должжны уничтожить оригинал, но информация оригинала передаётся копии.
Меня больше интересует следствия полученные из неправильной или фальшивой информации(дезинформация). Быть может к созданию дезинформации способны лишь субъекты.

С уважением, До.


> > > > А я пробовал доказать это тем, что если бы информация унмчтожалась с уничтожением приемника, то можно было бы ДИСТАНЦИОННО уничтожать информацию, причем мгновенно, независимо от расстояния.
> > > > Но это нарушило бы принцип конечной скорости взаимодействия...

> > > А вы подробней опишите, что именно вы уничтожаетет и как.
> > Извините что встреваю в Ваш спор, но это как говорится с больной головы на здороую. Если я правильно понял именно Вы высказали предположение о том что уничтожение приёмника, его схемы и знания о его принципа, в конечном итоге уничтожение сознания которое в состоянии придумать такой приёмник(моя интерпритация того что Вы писали ранее-поправьте меня если я Вас переврал)ведёт к уничтожению информации которая могда бы быть принята этим приёмником.
> > Так что этот вопрос направлен по моему мнению к Вам.
> > С уважением До.
> Я приводил пример, когда потеря ключа фатальна для расшифровки сигнала, несущего информацию. Человек зашифровал текст сообщения с помощью известного ему ключа и умер. Все, текст не может быть расшифрован. В принципе.
Если Вы правы, то каким образом археологи способны дешифрировать записи давно вымерших народов и цивилизаций? Возьмите иероглифы, вавилонские глинянные дощечки. Что значит в принципе? Это как то ненаучно. Вы имели ввиду - вероятность расшифровки близка нулю? Или равна нулю?
То что можно зашифровать можно и дешифровать.
Любой код можно раскусить -всё дело в ресурсах и времени.
Были бы кости а мясо нарастёт.
> Информация уничтожена "дистанционно". Бумажка с шифровкой здесь, а человек помер где-то далеко. Пока не знали, что он помер, бумажка содержала информацию, которую надеялись расшифровать, если человек пришлет ключ. Потом пришло сообщение, что чел помер, а ключа не оставил.
Информация независима по моему мнению от нашего знания. А то имеем парадоксы друга Вигнера - некоторые знакомые этого человека не знающие о его смерти имеют ещё информацию и надеются её расшифровать а другие знакомые узнавшие о смерти этого человека вследствии новой информации теряю свою старую информацию или как?
Мне этот приём напоминает ребёнка закрывающего глаза и таким образом "прячущегося" от своих родителей.
Пусть у меня есть книги на незнакомом мне языке. Обладаю я информацией содержащейся в этих книгах? Я выучил язык и прочитал эти книги. В какой момент я начал обладать недоступной мне ранее информацией? Обладал ли я этой информацией после выучивания языка но до прочитания этих книг?
С уважением До.


С уважением До.


> > > Qqruza рассматривает информацию как нечто зависящее от метода приёма - есть приёмник способный дешефрировать сигнал -есть и информация - разрушая приёмник разрушается и информация.Самое странное в его логике - ремонтируя приёмник мы восстанавливаем информацию в принимаемом сигнале.
> > Позволю себе прокоментировать.
> Ваше право которое я приветствую.
> > Если вы способны отремонтировать приемник, то по-существу, информация не потеряна. Вам известна конструкция приемника, а значит вы знаете, как извлечь информацию. Если вам конструкция неизвестна, то вы можете догадаться о технологии, изучая сломанный приемник. При этом вы используетет знания, полученные ранее. Если вы совершенно ничего не знаете, то догадка, что некий кусок материи содержит записанную на него информацию и способ расшифровки -- это просто новое открытие.
> Я часть уже ответил F1, вообщем по Вашему надо уничтожать сознание -лишь тогда имеем гарантию того что информация уничтоженна безвозвратно. Но наше сознание базируется на органике которая в свою очередь образовалась из неорганики миллиарды лет назад. Следовательно уничтожение сознания недостаточно чтобы уничтожить информацию, надо уничтожить возможность возникновения сознания, т.е. лишь уничтожение материи ведёт нас к полнейшему уничтожению информации.
> Но это то что я утверждал всё время.
Мне кажется, чтоя ответил на этот вопрос. Пример с потерей ключа опровергает утверждения, что информацию трудно уничтожить. Да, если сообщение выбить на гранитной скале, то потребуется много динамита. Но есть дым сигареты, которым тоже можно написать в воздухе текст. В обоих случаях мы имеем текст, несущий информацию.

> > Подумайте над тем, можно ли строго доказать, что данная расшифровка единственная? Он может быть удачной, похожей на правду, и т.п. Но абсолютной уверенности никогда не будет.
> Тут Вы правы. Уверенности нет принципиально. Даже один и тот же ответ можно интерпритировать по разному. Но изменяется информация вследствии интерпритации оной субъектом?
А вы найдите примерение понятию информации, которая заключена в куске материи, но которую достать оттуда невозможно. Мы только можем догадываться, строить предположения, "интерпретировать". Такое понятие уже есть. Называется она у Канта "вещь в себе". Зачем умножать сущности? Уже есть такое.
Когда я говорю об информации, меня не интересует сущность, которую мы можем познавать, изучать, объяснять. У нас есть для обозначения этой сущности: природа, материя, или что-нибуть в этом роде. Зачем этому же приписывать еще одно обозначение? Я называю информацией другую сущность, которая может быть измерена и от которой есть конкретная польза, чтоли...


> > > > > А я пробовал доказать это тем, что если бы информация унмчтожалась с уничтожением приемника, то можно было бы ДИСТАНЦИОННО уничтожать информацию, причем мгновенно, независимо от расстояния.
> > > > > Но это нарушило бы принцип конечной скорости взаимодействия...

> > > > А вы подробней опишите, что именно вы уничтожаетет и как.
> > > Извините что встреваю в Ваш спор, но это как говорится с больной головы на здороую. Если я правильно понял именно Вы высказали предположение о том что уничтожение приёмника, его схемы и знания о его принципа, в конечном итоге уничтожение сознания которое в состоянии придумать такой приёмник(моя интерпритация того что Вы писали ранее-поправьте меня если я Вас переврал)ведёт к уничтожению информации которая могда бы быть принята этим приёмником.
> > > Так что этот вопрос направлен по моему мнению к Вам.
> > > С уважением До.
> > Я приводил пример, когда потеря ключа фатальна для расшифровки сигнала, несущего информацию. Человек зашифровал текст сообщения с помощью известного ему ключа и умер. Все, текст не может быть расшифрован. В принципе.
> Если Вы правы, то каким образом археологи способны дешифрировать записи давно вымерших народов и цивилизаций? Возьмите иероглифы, вавилонские глинянные дощечки.
Вы участвовали когда-нибудь в раскопках? А вообще-то, я бы нехотел углубляться в археологию.

> Что значит в принципе? Это как то ненаучно. Вы имели ввиду - вероятность расшифровки близка нулю? Или равна нулю?
> То что можно зашифровать можно и дешифровать.
> Любой код можно раскусить -всё дело в ресурсах и времени.
Нет, не любой.
Самый простой вид "в принципе нерасшифровываемого" кода. Нумеруете буквы и др. символы (n символов в алфавите). Потом берете генератор шума и выбираете случайную последовательность
длины N, равной длине шифрумого сообщения. Эта последовательность есть ключ.
Теперь к каждому символу сообщения прибавляете соответствующее число из ключа по модулю n. Все, сообщение зашифровано. Расшифровать его невозможно, если нет ключа. В качестве расшифровки подойдет любой осмыссленный текст длиной N. Но вряд ли вы назовете его расшифровкой.


> > Информация уничтожена "дистанционно". Бумажка с шифровкой здесь, а человек помер где-то далеко. Пока не знали, что он помер, бумажка содержала информацию, которую надеялись расшифровать, если человек пришлет ключ. Потом пришло сообщение, что чел помер, а ключа не оставил.
> Информация независима по моему мнению от нашего знания.
Это ваше дело, что считать информацией. Личное. Только не надо называть это объективной информацией :)
Вот мы и пришли к субъективности. Но с другой стороны.



> Знаком с таким философским течением, но совершенно его не разделяю, не принимаю.

Может быть это временно? :)
Квантовая механика не очень-то соответствует такой позиции.


> Пока не знали, что он помер, бумажка содержала информацию, которую надеялись расшифровать, если человек пришлет ключ.

Бумажка-то что содержала, то и дальше содержит.
Вы очень точно выразились: "...надеялись расшифровать...", - т.е. владели не информацией, а лишь надеждой. Потом надежда исчезла. А информации у желающих ее получить, как не было, так и нет...

Владели же лишь информацией о наличии ключа у зашифровавшего, а потом - информацией, что ключ утерян. Так что дистанционно уничтожена не информация, а всего только надежда.

А то по-Вашему получается, что если потом вдруг выяснится, что умерший оставил дубликат ключа еще кому-то, о котором до поры до времени не знали, и когда он неожиданно объявляется, информация вдруг возникает из ничего! (?)


Спасибо за обстоятельный ответ.
Ваша позиция теперь мне понятна и я с ней практически полностью согласен.

Хотя, я уже как-то говорил об этом, я все-таки высказываю предположение о том, что информация физической системы может в некоторых случаях теряться (но только не появляться новая).
Так, в системе, находящейся в движении, содержится информация о том, когда эта система остановится. А вот существует ли информация о ранее двигавшейся системе в остановившейся?
Одно состояние системы как причина может вызвать только единственное следствие - это очевидно!
Но кто может доказать, что одно и то же следствие (состояние системы) не может быть вызвано несколькими разными вариантами причин?

С уважением, Falcon.


> На счёт мгновенной скорости перпедачи информации есть такой пример. Монетка подбрасывается в воздух, после падения не проверяя то что выпало распиливаем монетку вдоль и берём верхнюю часть монетки. Удаляемся от второй половинки монеты лежащей на полу на большое расстояние. Проверяем что выпало на верхней половинке монетки и в тот же момент получаем информацию о том что показывает монетка оставшеяся лежать на полу. С какой скоростью распространяется тогда эта информация?

Положим, во-первых, информация о второй половинке избыточна - состояние монетки описывается одним битом. Вторая половинка - это логическая операция отрицания над первой половинкой:)
Во-вторых, от того, что мы не смотрели на монету, информация о выпадении не отсутствовала - ее просто не считывали.

> Я утверждаю что информация не распространяется с какой либо скоростью -она просто есть всегда и всюду. Если мы считываем информацию со скоростью меньшей или равной скорости света то это наши личные проблемы.

Не скажите! Информация о состоянии физической системе есть в самой системе. Она может также переноситься за пределы системы любым физическим носителем.
Но любой физический носитель может перемещаться не быстрее света. Так что проблемы то конечно, наши личные, но обусловленные проблемами носителя.

Я утверждаю, что информация из точки А в точку Б может быть передана только в качестве багажа, с каким-нибудь попутным объектом.
Я уже определял термин "информация" как набор характеристик. Так вот, этот самый набор характеристик передатчика оказывает влияние на набор характеристик переносчика информации. Так и происходит ее передача. Прием информации - это изменение характеристик приемника под воздействием носителя информации.

С уважением, Falcon.

> С уважением, До.


>
> > Физ. информация системы - это совокупность всех сведений о системе, представленных в произвольном формализованном виде, используя которые в принципе можно экспериментально отличить эту систему от любой другой отличной системы.

> Смысл информации имеет значение для нас, в связи с нашей способностью познавать мир. В физике ему (пока, во всяком случае) нет места.

Информация не существует сама по себе. Для нее нужны две сущности, одна из которых выступает в качестве источника, а вторая - приемника информации. Если приемником является живая система, то "чистой" информацией для нее будут служить те изменения внешнего мира, которые не привносят в систему вещества и энергии (слабые и сверхслабые сигналы). Это может быть низкоинтенсивная ЭМ волна, например.

Для того, чтобы разобраться с информационными процессами, важно понять чем система отличается от несистемы, потому что в Мегасистеме взаимодействий - Универсуме - работают системные законы и информационные взаимосвязи. Не приняв это к сведению, вы никогда не сумеете определить физическую суть информации и будете отождествлять ее либо со сведениями (СМИ), либо с простым взаимодействием двух объектов. Эти вопросы рассматриваются в недавно появившейся на прилавках книге "Незримое, непознанное, очевидное" (автор - Марина Шадури). После ее прочтения многие вопросы у вас снимутся сами собой.


> Я приводил пример, когда потеря ключа фатальна для расшифровки сигнала, несущего информацию. Человек зашифровал текст сообщения с помощью известного ему ключа и умер. Все, текст не может быть расшифрован. В принципе.
> Информация уничтожена "дистанционно". Бумажка с шифровкой здесь, а человек помер где-то далеко. Пока не знали, что он помер, бумажка содержала информацию, которую надеялись расшифровать, если человек пришлет ключ. Потом пришло сообщение, что чел помер, а ключа не оставил.

Вы утверждаете, что бумажка без ключа не несет информации, а с ключом несет?

Тогда вопрос к вам:

Пусть мы не знаем - помер хрангитель ключа, или нет, а просто передаем эту самую бумажку факсом по телефонным проводам в другой город!
Понятно, что полученную копию можно будет расшифровать ключом, или нет, если ключа нет.
Вопрос, что же мы передавали по проводам? Информацию, или нет?

Так вот, батенька, информация на бумажке представлена в виде черных пятен на белом фоне, и только. И плевала она на то, есть от нее ключ, или нет!
Кстати, доказано, что любой шифр может быть взломан за конечное количество попыток и неподбираемых ключей не существует. Но суть не в том.

Информация - это набор характеристик носителя, и только!



Мне понравились вопросы, которые поставил qqruza. По ответам на эти вопросы можно судить о научном вероисповедании человека.

Мои ответы:

> >Имеется закрытый чемодан с документами. В чемодане бомба, которая через час взорвется. Чтобы отключить механизм бомбы, нужно с клавиатуры ввести один из дух множителей числа, написанного на крышке чемодана. Число имеет примерно 10000 десятичных знаков. Существует ли принципиальная возможность прочитать документы?

Посмотрим можно ли вычислить это число на QM.
Число шагов алгоритма Шора будет приблизительно:
N=(log(exp(10000))^2= 100e+6
Дальше определим время необходимое для вычисления. По идее для этого нужно воспользоваться теоремой Марголуса, но и так ясно, что много времени для этих вычислений не понадобится.
Так, что если QM возможен, то задача изъятия документов разрешима. Однако, мы можем ошибаться и создание достаточно большой QM окажется невозможным. 2^10000 вселенных (в Эвереттовской модели) это очень много. А вдруг мировые вычислительные ресурсы ограничены?. Может быть просто нет столько вселенных? Между прочим подобную мысль высказывал Рашевский:

<< Впрочем, возможно, что нам даже не придется углубляться в космос для проверки того, насколько очень большие материальные совокупности на самом деле подчиняются счету на основе теории натурального числа. Возможно, что какое-нибудь из следующих поколений ЭВМ достигнет столь гигантских возможностей в смысле количества производимых операций, что соответствующие эксперименты станут реальными.>>

Может случиться, что потратив огромные усилия на создание QM. Преодолев трудности связанные с декогеренцией и решив другие технические проблемы, мы в конце концов построим квантовый компьютер. Но с удивлением обнаружим, что он не работает! Но эта неудача будет стоить результата!
Это к Вашему вопросу о том что есть принципиальная возможность.
Что касается других Ваших вопросов о возможности измерений координат точнее h/mc и.т.д, то все они связаны именно с проблемой конечности мира. Соответственно и ответ будет определяться принятой к рассмотрению моделью.
Если допустить, что мир конечен, то на вопрос о точности измерения координаты электрона я бы ответил отрицательно. Дело в том, что для увеличения точности измерения я должен заимствовать у Вселенной все больше и больше ресурсов (скажем q-битов). Но отношение h/mc, на мой взгляд субъективно (в том вполне объективном смысле, который я «проповедую»). То есть оно будет определяться отношением вычислительных ресурсов наблюдателя и остального мира. У меня есть подозрение, что оно будет уменьшаться по мере роста наших возможностей измерять все более точно.


> >Неужели "свет клином сошелся" на квантовой механике и ее постулатах???

Да сошелся! КМ – самая глубокая теория на сегодняшний день. И она уже стала частью нашего миропонимания. Теперь все дальнейшее развитие физики будет происходить в контексте КМ до тех пор пока не появится еще более глубокая терия в пределе переходящая в КМ.


> Речь здесь не только об информации но и об объективности и субъективности.
> Я (как и Игнорант) утверждаю, что информация субъективна.

Слава Богу, и я тоже.

> Чем говорить об информации, заключающейся в формулировках законов природы, будем лучше говорить об информации, получаемой в результате непосредственных измерений.

Оба направления важны и необходимы, но начинать надо, конечно, с простого.

> Все неопределенности и неточности могут появиться только при учете квантовых свойств как измеряемого объекта, так и других составляющих процесса измерения, например, прибора или ячеек памяти, в которые записываются результаты измерений.

Пока надо устранить неопределенность именно в формальной части. Интерпретация результатов начинается после их получения. Вначале субъект (человек) прямо или посредством приборов получает информацию (сведения) как некоторое отражение реального мира. Отражение в типичном для физики случае - число, имеющее размерность как смысловое наполнение. Даже число ПИ имеет размерность (смысловое наполнение) радианы/оборот. Существенно, что информацию можно представить в символьном виде, в общем случае в виде текста, совсем в общем случае в виде битовых полей. Но это уж пусть математики и программеры уточняют.

Контрольная точка: физическая система имеет свойства, взаимодействует своими частями, существует независимо от субъекта (если субъект преднамеренно не вмешивается). Информацию получает субъект по своей инициативе, ею обладает и может передавать информацию другим субъектам.

> Известно, что при измерении квантового объекта мы получаем информацию о его состоянии, но и сам объект переходит в состояние, скоррелированное с полученной информацией (редукция).

Это более интересно, чем формалистика с описанием понятия "информация", но через ступеньку прыгать вредно.


> > Знаком с таким философским течением, но совершенно его не разделяю, не принимаю.

> Может быть это временно? :)
> Квантовая механика не очень-то соответствует такой позиции.

Однозначно - временно. Либо ишак...
Пока надеюсь, КМ будет развиваться в сторону физики.

Дополнения: http://physics.nad.ru/newboard/messages/36630.html


> Информация - это связи, установленные между воздействием и реакцией на него.

Почти правильно, но не совсем.Ваше определение больше подходит для информационного взаимодействия, а не самой информации. Взгляните на мое первое сообщение от 12 мая to ignorant.


> > >Неужели "свет клином сошелся" на квантовой механике и ее постулатах???

> Да сошелся! КМ – самая глубокая теория на сегодняшний день.

Это, смотря чем глубину измерять... Что Вы понимаете под глубиной - холод и мрак? :)

> Теперь все дальнейшее развитие физики будет происходить в контексте КМ до тех пор пока не появится еще более глубокая терия в пределе переходящая в КМ.

Может стоит уточнить: Теперь все дальнейшее развитие КМ будет происходить в контексте КМ до тех пор пока не появится еще более глубокая терия, которая и убъет КМ, как Тарас Бульба:)



> > Но это то что я утверждал всё время.
> Мне кажется, чтоя ответил на этот вопрос. Пример с потерей ключа опровергает утверждения, что информацию трудно уничтожить. Да, если сообщение выбить на гранитной скале, то потребуется много динамита. Но есть дым сигареты, которым тоже можно написать в воздухе текст. В обоих случаях мы имеем текст, несущий информацию.

Почему Вы рассматриваете понятие информации так узко? Ну потеряли ключ. Кто гарантирует нам что не существует дубль этого ключа как предлагает F1?
Что не существуют свидетели знающие как этот ключ выглядит?
Кто запрещает нам случайно подобрать такую комбинацию которая будет тождественна искомому ключу?
Я прихожу к мысли что для Вас информация лишь то что можно понять, осознать, воспроизвести итд. То что мы не понимаем по Вашему не есть информация?
Тогда скажите мне является ли тогда ДНК носителем информации?
Являлась ДНК носителем информации в позапрошлом веке?


> А вы найдите примерение понятию информации, которая заключена в куске материи, но которую достать оттуда невозможно. Мы только можем догадываться, строить предположения, "интерпретировать". Такое понятие уже есть. Называется она у Канта "вещь в себе". Зачем умножать сущности? Уже есть такое.
Кусок материи имеет массу, момент импульса, скорость, направление, заряд..
Не есть ли этот набор искомая Вами информация?
Почему бы не предположить что этот набор характеристик "куска материи" и есть объективная информация которая не в состоянии изчезнуть а лишь изменить свою форму после взаимодействия с другими "кусками материи"?

> Когда я говорю об информации, меня не интересует сущность, которую мы можем познавать, изучать, объяснять. У нас есть для обозначения этой сущности: природа, материя, или что-нибуть в этом роде. Зачем этому же приписывать еще одно обозначение? Я называю информацией другую сущность, которая может быть измерена и от которой есть конкретная польза, чтоли...
Тут я позволю с Вами не согласиться. Рассматривая каждую "сущность" в отдельности мы естественно не увидим за деревьями леса(нем. поговорка:
den Wald vor lauter Baeumen nicht sehen). Но если же рассматривать комбинацию этих сущностей, то мы практически начинаем работать с ячейками памяти в которых записанна эта информация.

ЗЫ Под "сущностью" я предполагал некоторые параметры "кусков материи" как масса, скорость..

С уважением До.


> > >Неужели "свет клином сошелся" на квантовой механике и ее постулатах???

> Да сошелся! КМ – самая глубокая теория на сегодняшний день. И она уже стала частью нашего миропонимания. Теперь все дальнейшее развитие физики будет происходить в контексте КМ до тех пор пока не появится еще более глубокая терия в пределе переходящая в КМ.

Для тех, кто не видел океана, и лужа кажется морем.

Ozes


> Спасибо за обстоятельный ответ.
> Ваша позиция теперь мне понятна и я с ней практически полностью согласен.

> Хотя, я уже как-то говорил об этом, я все-таки высказываю предположение о том, что информация физической системы может в некоторых случаях теряться (но только не появляться новая).

А информация о потере информации -разве не информация???

> Так, в системе, находящейся в движении, содержится информация о том, когда эта система остановится. А вот существует ли информация о ранее двигавшейся системе в остановившейся?

Всякий покой относителен.

> Одно состояние системы как причина может вызвать только единственное следствие - это очевидно!
> Но кто может доказать, что одно и то же следствие (состояние системы) не может быть вызвано несколькими разными вариантами причин?

Здесь нечего доказывать.
Это очевидно.

5 + 5 + 5 = 15
3 + 10 + 2 = 15
6 + 8 + 1 = 15

Ozes



> > Если Вы правы, то каким образом археологи способны дешифрировать записи давно вымерших народов и цивилизаций? Возьмите иероглифы, вавилонские глинянные дощечки.
> Вы участвовали когда-нибудь в раскопках? А вообще-то, я бы нехотел углубляться в археологию.
У меня есть знакомые которые это делают.
На счёт египетских иероглифов я немного подогнал -для них действительно существовал ключ
Stein von Rosete
Розеттский камень

> > Любой код можно раскусить -всё дело в ресурсах и времени.
> Нет, не любой.
> Самый простой вид "в принципе нерасшифровываемого" кода. Нумеруете буквы и др. символы (n символов в алфавите). Потом берете генератор шума и выбираете случайную последовательность
> длины N, равной длине шифрумого сообщения. Эта последовательность есть ключ.
> Теперь к каждому символу сообщения прибавляете соответствующее число из ключа по модулю n. Все, сообщение зашифровано. Расшифровать его невозможно, если нет ключа. В качестве расшифровки подойдет любой осмыссленный текст длиной N. Но вряд ли вы назовете его расшифровкой.
Давайте несколько упростим ситуацию. Пусть мы имеем случайную комбинацию 0 и 1 длинной в N знаков. Пусть эта информация и есть наш ключ. Кто запрещает нам используя генератор случайных чисел эксперементировать до тех пор, пока мы не получим искомую комбинацию? Что то я вспоминаю о обезьянах перед печатными машинками и пишущими уже написанные книги(-:.
Если серьёзно, то решение найти с помощью одного компьютера искомую комбинацию будет упираться в проблему времени, но используя параллельные процессы и множество компьютеров проблема становиться решабильной.

> > Информация независима по моему мнению от нашего знания.
> Это ваше дело, что считать информацией. Личное. Только не надо называть это объективной информацией :)
Частично Вы правы. Я уж не знаю какие аргументы привести в защиту объективности параметров материи. Попробую так. Пусть масса некоторого объекта зависит от относительной скорости наблюдателя. Информация о массе не есть объективная информация, так?
Есть ли информация о массе покоя исследуемого объекта по Вашему объективный парметр. Есть ли знание о массе покоя информация по Вашему мнению?
> Вот мы и пришли к субъективности. Но с другой стороны.
Цыплят по осени считают (-:.
С уважением До.



> > Я утверждаю что информация не распространяется с какой либо скоростью -она просто есть всегда и всюду. Если мы считываем информацию со скоростью меньшей или равной скорости света то это наши личные проблемы.

> Не скажите! Информация о состоянии физической системе есть в самой системе. Она может также переноситься за пределы системы любым физическим носителем.
> Но любой физический носитель может перемещаться не быстрее света. Так что проблемы то конечно, наши личные, но обусловленные проблемами носителя.

> Я утверждаю, что информация из точки А в точку Б может быть передана только в качестве багажа, с каким-нибудь попутным объектом.

Рассмотрим систему зарядов расположенных на некотором расстоянии друг от друга. Начнём смещать механическим методом один из зарядов этой системы.
Будет ли смещение этого заряда влиять на расположение других зарядов?
Через какое время t заряды "узнают" о смещении этого заряда если расстояние до него составляет S?
Что Вы слышали о retardierten или avancierten Wellen?
Фейнман описывает это процес чувствования электростатических сил действающих на ускоренный заряд Q со стороны тех зарядов Вселенной которые готовы поглотить излучение этого заряда в тот же миг когда происходит сдвиг этого заряда Q.
Есть ли этот процесс по Вашему обмен информацией?
> Я уже определял термин "информация" как набор характеристик. Так вот, этот самый набор характеристик передатчика оказывает влияние на набор характеристик переносчика информации. Так и происходит ее передача. Прием информации - это изменение характеристик приемника под воздействием носителя информации.
Как Вы рассматриваете тогда запутанные состояния? Принадлежит ли спин частицы к набору характеристик?

С уважением, До.


> Давайте несколько упростим ситуацию. Пусть мы имеем случайную комбинацию 0 и 1 длинной в N знаков. Пусть эта информация и есть наш ключ. Кто запрещает нам используя генератор случайных чисел эксперементировать до тех пор, пока мы не получим искомую комбинацию? Что то я вспоминаю о обезьянах перед печатными машинками и пишущими уже написанные книги(-:.

Как вы определите, что ключ найден.


> Так вот, батенька, информация на бумажке представлена в виде черных пятен на белом фоне, и только. И плевала она на то, есть от нее ключ, или нет!

Пятна на бумажке -- конечно информация. Но другого уровня. В любой информационной технологии есть аналог так называемом OSI стандарта уровней.
Если я пишу здесь какие-то слова, то я передаю информацию для тем, кто их реально читает, и мне наплевать на tcp/ip. И если в вашем броузере нет подходящей кодировки, то вы эту инфу не получите.

> Кстати, доказано, что любой шифр может быть взломан за конечное количество попыток и неподбираемых ключей не существует.
Это неверно.


> > Пока не знали, что он помер, бумажка содержала информацию, которую надеялись расшифровать, если человек пришлет ключ.

> Бумажка-то что содержала, то и дальше содержит.
> Вы очень точно выразились: "...надеялись расшифровать...", - т.е. владели не информацией, а лишь надеждой. Потом надежда исчезла. А информации у желающих ее получить, как не было, так и нет...

> Владели же лишь информацией о наличии ключа у зашифровавшего, а потом - информацией, что ключ утерян. Так что дистанционно уничтожена не информация, а всего только надежда.

> А то по-Вашему получается, что если потом вдруг выяснится, что умерший оставил дубликат ключа еще кому-то, о котором до поры до времени не знали, и когда он неожиданно объявляется, информация вдруг возникает из ничего! (?)

Все это правильно. Просто нет четкой терминологии, наподобие той, которая сформировалась в компутерной технологии.


> > Чем говорить об информации, заключающейся в формулировках законов природы, будем лучше говорить об информации, получаемой в результате непосредственных измерений.

> Оба направления важны и необходимы, но начинать надо, конечно, с простого.

> > Все неопределенности и неточности могут появиться только при учете квантовых свойств как измеряемого объекта, так и других составляющих процесса измерения, например, прибора или ячеек памяти, в которые записываются результаты измерений.

> Пока надо устранить неопределенность именно в формальной части. Интерпретация результатов начинается после их получения. Вначале субъект (человек) прямо или посредством приборов получает информацию (сведения) как некоторое отражение реального мира. Отражение в типичном для физики случае - число, имеющее размерность как смысловое наполнение. Даже число ПИ имеет размерность (смысловое наполнение) радианы/оборот. Существенно, что информацию можно представить в символьном виде, в общем случае в виде текста, совсем в общем случае в виде битовых полей. Но это уж пусть математики и программеры уточняют.

> Контрольная точка: физическая система имеет свойства, взаимодействует своими частями, существует независимо от субъекта (если субъект преднамеренно не вмешивается). Информацию получает субъект по своей инициативе, ею обладает и может передавать информацию другим субъектам.

Я не очень понял, о чем вы здесь...
Получение информации субъектом -- прямое вмешательство в систему.

> > Известно, что при измерении квантового объекта мы получаем информацию о его состоянии, но и сам объект переходит в состояние, скоррелированное с полученной информацией (редукция).

> Это более интересно, чем формалистика с описанием понятия "информация", но через ступеньку прыгать вредно.
Через какую сиупеньку я прыгаю?


> > > >Неужели "свет клином сошелся" на квантовой механике и ее постулатах???

> > Да сошелся! КМ – самая глубокая теория на сегодняшний день.

> Это, смотря чем глубину измерять... Что Вы понимаете под глубиной - холод и мрак? :)

> > Теперь все дальнейшее развитие физики будет происходить в контексте КМ до тех пор пока не появится еще более глубокая терия в пределе переходящая в КМ.

> Может стоит уточнить: Теперь все дальнейшее развитие КМ будет происходить в контексте КМ до тех пор пока не появится еще более глубокая терия, которая и убъет КМ, как Тарас Бульба:)

Я думаю, что вы вряд ли дождетесь этого :)
История физики не знает примеров "убийства" достаточно развитых количественных теорий.


> Все это правильно. Просто нет четкой терминологии, наподобие той, которая сформировалась в компутерной технологии.

Конечно. Идет спор об информации, а каждый пользуется собственным пониманием, добавляя в определение изрядную порцию субъективного к ней отношения. Один считает информацией только то, что ему полезно, другой - что может быть полезно хоть кому-нибудь, третий - третье, четвертый - четвертое...
Сколько людей, столько и мнений.

Хорошо бы сначала поставить вопрос о том, что же это вообще такое, прийти к общему знаменателю, а потом обсуждать...
Хотя... вспоминается не столь давняя дискуссия по поводу работы, совершенной мальчиком, и сколько он должен получить за нее конфет. Даже по поводу работы было много разночтений, несмотря на существования абсолютно четкого определения.


> История физики не знает примеров "убийства" достаточно развитых количественных теорий.

Но физика может, не разрушая здания теории (методов количественных расчетов), только "поменять фундамент".

Примерно так произошло с теорией флогистона. Представления об особой субстанции, лежащие в основе этой теории, заменены на МКТ. Но остался практически без изменений матаппарат.
И даже сохранились без изменения "стены" - термины, в свете новых взглядов даже немного несуразные: "поглощение теплоты", "тепловыделение", "теплоемкость", "теплоперенос", и т.п...
Даже слово "температура" переводится как "смесь" (чего? жара и холода, ессно...)


> Давайте несколько упростим ситуацию. Пусть мы имеем случайную комбинацию 0 и 1 длинной в N знаков. Пусть эта информация и есть наш ключ. Кто запрещает нам используя генератор случайных чисел эксперементировать до тех пор, пока мы не получим искомую комбинацию? Что то я вспоминаю о обезьянах перед печатными машинками и пишущими уже написанные книги(-:.

Обезьяны - хороший генератор шума. Посадим много-много обезьян, вот вам и параллельные процессы.
В конце-концов Вы видите, что одна обезьяна напечатала Вам "Идиота" Достоевского, и Вы рады: "текст расшифрован!"
Потом заглядываете в творение соседней обезьянки и видите Евангелие от Матфея (допустим, книга той же длины)

Так что же было зашифровано на самом деле? Чье жизнеописание?


> > Информация - это связи, установленные между воздействием и реакцией на него.

> Почти правильно, но не совсем.Ваше определение больше подходит для информационного взаимодействия, а не самой информации. Взгляните на мое первое сообщение от 12 мая to ignorant.

И все-таки...

Допустим, что я произношу "Пи". Какую иформацию Вы получили?

Вероятно найдется много желающих сказать, что получены два байта информации, но ведь это не сама информация, а только объем переданного сигнала.

Возможно Вы вспомните число Пи, но я-то хотел, чтобы Вы сходили за пивом. Почему так получилось? Да, мы с Вами предварительно не договорились, какая реакция должна быть на этот сигнал, т.е. не установили связь между сигналом и реакцией на него.

Наверно запах разлагающейся туши животного у Вас не вызовет ничего кроме отвращения, но вот для австралийского варана нет ничего приятнее этого запаха. Для него это запах пищи.

Согласен с Вами, что в системе работают информационные взаимосвязи. Вот они-то и определяют реакцию на сигнал.

Так может быть информация триедина. Сигнал-связь-реакция.


> > История физики не знает примеров "убийства" достаточно развитых количественных теорий.

> >Но физика может, не разрушая здания теории (методов количественных расчетов), только "поменять фундамент".

> >Примерно так произошло с теорией флогистона.

Похоже так и будет. Возможно даже не придется менять фундамент. Скорее нужно будет возвести более прочный фундамент под ныне существующий, который стоит на зыбкой почве.


> Рассмотрим систему зарядов расположенных на некотором расстоянии друг от друга. Начнём смещать механическим методом один из зарядов этой системы.

Чтобы система зарядов находилась в равновесии, необходимо, чтобы силы, действующие на каждый заряд в отдельности были в сумме равны нулю.
Или, на худой конец, произведению массы заряда на его ускорение - это для случая вращения зарядов.

> Будет ли смещение этого заряда влиять на расположение других зарядов?

Понятно, что при смещении заряда равновесие будет нарушаться. Это приведет к перераспределению остальных зарядов таким образом, чтобы равновесие восстановилось...

> Через какое время t заряды "узнают" о смещении этого заряда если расстояние до него составляет S?

Эйнштейн утверждал (и я не вижу причин не соглашаться с ним), что они "узнают" об этом через время t = S/c, где с - скорость света.

Именно с такой скоростью распространяется всякое изменение электрического поля, да и всех прочих полей.

> Что Вы слышали о retardierten или avancierten Wellen?
> Фейнман описывает это процес чувствования электростатических сил действающих на ускоренный заряд Q со стороны тех зарядов Вселенной которые готовы поглотить излучение этого заряда в тот же миг когда происходит сдвиг этого заряда Q.

Думаю, что это что-то из области мистики, ВД и внутриходов.

> Есть ли этот процесс по Вашему обмен информацией?
Если бы этот процесс действительно существовал - то все учебники физики пришлось бы выкинуть на помойку (ИМХО).

> > Я уже определял термин "информация" как набор характеристик. Так вот, этот самый набор характеристик передатчика оказывает влияние на набор характеристик переносчика информации. Так и происходит ее передача. Прием информации - это изменение характеристик приемника под воздействием носителя информации.

> Как Вы рассматриваете тогда запутанные состояния?

Увы, я их не рассматриваю (предпочитаю не лазить в дебри КМ) - подожду, пока их распутают :)

> Принадлежит ли спин частицы к набору характеристик?
Конечно, раз его наличие объективно.
Можно даже представить себе некий канал связи, основанный на спиновой модуляции потока частиц :-)

С уважением, Falcon.


> Пятна на бумажке -- конечно информация. Но другого уровня. В любой информационной технологии есть аналог так называемом OSI стандарта уровней.
> Если я пишу здесь какие-то слова, то я передаю информацию для тем, кто их реально читает, и мне наплевать на tcp/ip. И если в вашем броузере нет подходящей кодировки, то вы эту инфу не получите.

Это так, но зато с уверенностью можно сказать, что сказанные Вами слова содержат информации не больше, чем размер ip-пакета, который их доставил :-)

> > Кстати, доказано, что любой шифр может быть взломан за конечное количество попыток и неподбираемых ключей не существует.
> Это неверно.

Скажите это компаниям, занимающимся защитой информации - они Вам памятник поставят :)


> Обезьяны - хороший генератор шума. Посадим много-много обезьян, вот вам и параллельные процессы.
> В конце-концов Вы видите, что одна обезьяна напечатала Вам "Идиота" Достоевского, и Вы рады: "текст расшифрован!"
> Потом заглядываете в творение соседней обезьянки и видите Евангелие от Матфея (допустим, книга той же длины)

Если не упоминать о наличии ГБ, то вся жизнь на Земле зародилась именно из-за некоего шума - совокупности огромного количества случайных процессов.
А дальше, уже по Дарвину, опять же из-за шумовых мутаций получились и Достоевский, и его "Идиот"...

Так что обезьяной Вы никого не удивите - ей до Достоевского всего то один шаг :-)


> > Давайте несколько упростим ситуацию. Пусть мы имеем случайную комбинацию 0 и 1 длинной в N знаков. Пусть эта информация и есть наш ключ. Кто запрещает нам используя генератор случайных чисел эксперементировать до тех пор, пока мы не получим искомую комбинацию? Что то я вспоминаю о обезьянах перед печатными машинками и пишущими уже написанные книги(-:.

> Как вы определите, что ключ найден.

Почитайте, например, "Пляшущих человечков" Конан Дойл'а - там этот алгоритм подробно объяснил Холмс Ватсону.

А если серьезно - то для этого строится функция правдоподобия, дальнейшая задача - перебор с поиском максимума - хотите, последовательный, а хотите - монтекарловский.

Основная задача - построить функцию правдоподобия. Например, если зашифрован текст на русском языке - функция - это отношение правильных слов, найденных в словаре, к неправильным. Можно добавлять кучу дополнительных критериев - средняя длина слов, повторяемость символов и т.д.
Конечно, имеется в виду, что:
1) длина ключа ограничена
2) длина сообщения гораздо больше длины ключа

Согласен, что если зашифровать одно слово "АТАС" до вида "0000", то вряд-ли его кто-нибудь расшифрует.


> > > Кстати, доказано, что любой шифр может быть взломан за конечное количество попыток и неподбираемых ключей не существует.
> > Это неверно.

> Скажите это компаниям, занимающимся защитой информации - они Вам памятник поставят :)

Ширпотреб вскрывается, "хорошая" кодировка - нет. Без памятников. Это просто используется, и давно. Не все шифровки второй мировой декодированы. Просто "хорошая" кодировка экономически не выгодна.



> > Одно состояние системы как причина может вызвать только единственное следствие - это очевидно!
> > Но кто может доказать, что одно и то же следствие (состояние системы) не может быть вызвано несколькими разными вариантами причин?

> Здесь нечего доказывать.
> Это очевидно.

> 5 + 5 + 5 = 15
> 3 + 10 + 2 = 15
> 6 + 8 + 1 = 15

Значит, если на колесах механической счетной машины выставить 4 и 6, то можно однозначно сказать, что она покажет после завершения суммирования - 10!
Но если на машине уже стоит 10, то невозможно определить, что именно с чем складывалось.
Значит, счетная машина постоянно теряет информацию... странно, правда?


> > > Информация - это связи, установленные между воздействием и реакцией на него.

> > Почти правильно, но не совсем.Ваше определение больше подходит для информационного взаимодействия, а не самой информации. Взгляните на мое первое сообщение от 12 мая to ignorant.

> И все-таки...

> Допустим, что я произношу "Пи". Какую иформацию Вы получили?

> Вероятно найдется много желающих сказать, что получены два байта информации, но ведь это не сама информация, а только объем переданного сигнала.

> Возможно Вы вспомните число Пи, но я-то хотел, чтобы Вы сходили за пивом. Почему так получилось? Да, мы с Вами предварительно не договорились, какая реакция должна быть на этот сигнал, т.е. не установили связь между сигналом и реакцией на него.

> Наверно запах разлагающейся туши животного у Вас не вызовет ничего кроме отвращения, но вот для австралийского варана нет ничего приятнее этого запаха. Для него это запах пищи.

> Согласен с Вами, что в системе работают информационные взаимосвязи. Вот они-то и определяют реакцию на сигнал.

> Так может быть информация триедина. Сигнал-связь-реакция.

Извините, что встреваю, но в приведенном Вами случае акт передачи информации включает не только произнесение слова "Пи", но и все предварительные договоренности. Договоренности же сводятся только к КВАНТОВАНИЮ сигнала.
В Вашем случае условия квантования не оговорены, поэтому нельзя сказать, какой именно объем информации Вы передали.
Как только Вы договоритесь о возможном наборе сигналов, равном N - все встанет на свои места - передаваемый объем информации равен произведению N на количество переданных сигналов!

Таким образом, установленная связь между сигналом и реакцией НЕ является передаваемой информацией. Информация, на мой взгляд - это НОМЕР связи из детерминированного НАБОРА связей.


> Хорошо бы сначала поставить вопрос о том, что же это вообще такое, прийти к общему знаменателю, а потом обсуждать...

А я это давно предлагал - сформулировать определение!
Но четкого так никто и не дал, да и мое не критиковали толком...


> > Но ведь информация для механической системы просто обратна энтропии, которая равна логарифму от статистического веса ...

> Если это определение информации, то

> > Нам остаётся только блох выискивать. :)

> Думаю, что Вы просто поторопились. Одним числом можно представить количество информации, но не саму информацию.

А температура и количество градусов - это разные вещи?
Так может стоит назвать информацией системы количество ее состояний (это если слишком грубо).

Если так - то назревает общее определение информации (или информативности?) физической системы:

Информация физической системы - это количественная мера ее подвижности...


> > История физики не знает примеров "убийства" достаточно развитых количественных теорий.

> Но физика может, не разрушая здания теории (методов количественных расчетов), только "поменять фундамент".

> Примерно так произошло с теорией флогистона. Представления об особой субстанции, лежащие в основе этой теории, заменены на МКТ. Но остался практически без изменений матаппарат.
> И даже сохранились без изменения "стены" - термины, в свете новых взглядов даже немного несуразные: "поглощение теплоты", "тепловыделение", "теплоемкость", "теплоперенос", и т.п...
> Даже слово "температура" переводится как "смесь" (чего? жара и холода, ессно...)

Я вот не знаю, флогистон и теплород -- это одно и то же?
Теплород заменен тепловой энергией и появился закон сохранения энергии, которая стала в разнвх процессах переходить из одной формы в другую.


> > > История физики не знает примеров "убийства" достаточно развитых количественных теорий.

> > >Но физика может, не разрушая здания теории (методов количественных расчетов), только "поменять фундамент".

> > >Примерно так произошло с теорией флогистона.

> Похоже так и будет. Возможно даже не придется менять фундамент. Скорее нужно будет возвести более прочный фундамент под ныне существующий, который стоит на зыбкой почве.

В КМ это происходит. Насколько я понимаю, КМ превращается сейчас из физической теории в математическую. Из теории, описывающей взаимодействие физических объектов в теорию, заменяяющую теорию вероятностей.
Несколько неудачно выразился...
Основа КМ -- представление об амплитудах, волновая функция, становится математическим понятием, более фундаментальным, чем вероятность. Теория вероятностей -- следствие КМ, но не наоборот.


> > Пятна на бумажке -- конечно информация. Но другого уровня. В любой информационной технологии есть аналог так называемом OSI стандарта уровней.
> > Если я пишу здесь какие-то слова, то я передаю информацию для тем, кто их реально читает, и мне наплевать на tcp/ip. И если в вашем броузере нет подходящей кодировки, то вы эту инфу не получите.

> Это так, но зато с уверенностью можно сказать, что сказанные Вами слова содержат информации не больше, чем размер ip-пакета, который их доставил :-)

> > > Кстати, доказано, что любой шифр может быть взломан за конечное количество попыток и неподбираемых ключей не существует.
> > Это неверно.

> Скажите это компаниям, занимающимся защитой информации - они Вам памятник поставят :)

Я уже приводил пример нескрываемого шифра. Длина ключа равна длине сообщения. Ключ используется только один раз. Это реально используется военными для особо критических случаев.


> > > Давайте несколько упростим ситуацию. Пусть мы имеем случайную комбинацию 0 и 1 длинной в N знаков. Пусть эта информация и есть наш ключ. Кто запрещает нам используя генератор случайных чисел эксперементировать до тех пор, пока мы не получим искомую комбинацию? Что то я вспоминаю о обезьянах перед печатными машинками и пишущими уже написанные книги(-:.

> > Как вы определите, что ключ найден.

> Почитайте, например, "Пляшущих человечков" Конан Дойл'а - там этот алгоритм подробно объяснил Холмс Ватсону.

> А если серьезно - то для этого строится функция правдоподобия, дальнейшая задача - перебор с поиском максимума - хотите, последовательный, а хотите - монтекарловский.

> Основная задача - построить функцию правдоподобия. Например, если зашифрован текст на русском языке - функция - это отношение правильных слов, найденных в словаре, к неправильным. Можно добавлять кучу дополнительных критериев - средняя длина слов, повторяемость символов и т.д.
> Конечно, имеется в виду, что:
> 1) длина ключа ограничена
> 2) длина сообщения гораздо больше длины ключа

> Согласен, что если зашифровать одно слово "АТАС" до вида "0000", то вряд-ли его кто-нибудь расшифрует.
Так об этом и речь :)
Меня не слишком интересует практика методов шифрования. Что важно, любая передача информации имеет стадию кодирования.
Любой физический эксперимент можно представить как передачу и прием информации, закодированной неким алгоритмом.


>

> >Значит, счетная машина постоянно теряет информацию... странно, правда?

Ничего странного. Все макроскопические вычислители рассеивают тепло. Они необратимы. Однако, при более внимательном рассмотрении, может оказаться, что ваш арифмометр, складывая 4+6 стучит не так, как при сложении 3+7. А это означает, что информация не теряется, а улетает в окружающее пространство в виде звуков, стуков и.т.д.

Однако, я не настаиваю на сохранении информации в обычном утилитарном смысле. Информация субъективна. Информация может переходить в латентное (нераспознаваемое субъектом) состояние. И тогла, мы УСЛОВНО должны считать, что она потеряна. Хотя, объективно, будучи определена, как мера сложности на фундаментальном уровне она сохраняется. То же самое имеет отношение и к энтропии. В связи с этим мне хочется задать следующий провокационный вопрос:
Как вы думаете, не является ли процесс редукции фон Неймана процессом возникновения информации?

По всей видимости Вы только недавно стали обдумывать эти вопросы. Однако, они давно обсуждаются в научной литературе. И тепрь достигнуто определенное их понимание. Хочу напомнить вам февральское обсуждение по теме "Необратимость в процессе вычислений" http://physics.nad.ru/newboard/messages/34186.html
Там, правда обсуждение ушло в другое русло. Но вы там можете найти ряд интересных ссылок.


> > > Но ведь информация для механической системы просто обратна энтропии, которая равна логарифму от статистического веса ...

> > Если это определение информации, то

> > > Нам остаётся только блох выискивать. :)

> > Думаю, что Вы просто поторопились. Одним числом можно представить количество информации, но не саму информацию.

> А температура и количество градусов - это разные вещи?
> Так может стоит назвать информацией системы количество ее состояний (это если слишком грубо).

> Если так - то назревает общее определение информации (или информативности?) физической системы:

> Информация физической системы - это количественная мера ее подвижности...

Напротив, не-подвижности. С числом возможных состояний растёт именно энтропия. Идеальная информация - это нерушимая каменная скрижаль, вручённая ув. Моисею.
Идеальный образ энтропии - это излучение чёрного тела. :)


Почка на березе чем-нибудь отличается от почки человека? Слово "информация" тоже имеет несколько значений. У того же Менского есть словосочетание "изъятие информации" при измерении. Он же не об уменьшении численного значения одного параметра говорит, а просто обращается к интуитивному восприятию.

> > > > Но ведь информация для механической системы просто обратна энтропии, которая равна логарифму от статистического веса ...

В этом и некоторых других случаях опускают для краткости дополнительные слова - количество, статистический вес и т.д. Тут речь идет не об информации, а о некоторых оценках ее количества.

> > А температура и количество градусов - это разные вещи?

Температура тела (системы) - одно число, информация о составных частях включает в себя данные об энергиях каждой частицы, более того энергия распределяется по степеням свободы. Чем подробнее мы хотим описать систему, тем больше параметров и с большей точностью мы должны задавать. Эти параметры (в символьном виде) и составляют информацию о системе.

> > Так может стоит назвать информацией системы количество ее состояний (это если слишком грубо).

Это СЛИШКОМ грубо. Количество состояний определяет энтропию, но каждое состояние требует особого описания своих свойств, хотя бы значения энергии.

> > Если так - то назревает общее определение информации (или информативности?) физической системы:

Информативность, если ее понимать как количество информации, можно определить числом, хотя бы и обратным значению энтропии, но информация - это гораздо больше, это многомерный массив чисел (и не только чисел).

> > Информация физической системы - это количественная мера ее подвижности...

> Напротив, не-подвижности. С числом возможных состояний растёт именно энтропия. Идеальная информация - это нерушимая каменная скрижаль, вручённая ув. Моисею.
> Идеальный образ энтропии - это излучение чёрного тела. :)



> Я не очень понял, о чем вы здесь...
> Получение информации субъектом -- прямое вмешательство в систему.

Несомненно. Но для начала стоит определиться с термином "информация"

> > > Известно, что при измерении квантового объекта мы получаем информацию о его состоянии, но и сам объект переходит в состояние, скоррелированное с полученной информацией (редукция).

Вот Менский с этим не согласен. Но не о нем речь, а о полученной информации. Как она выглядит? Вот получили, повлияли при получении на систему, но получили. Какое количество (в метрах, килограммах или распределении вероятности)?

> > Это более интересно, чем формалистика с описанием понятия "информация", но через ступеньку прыгать вредно.
> Через какую сиупеньку я прыгаю?


>
> > > Одно состояние системы как причина может вызвать только единственное следствие - это очевидно!
> > > Но кто может доказать, что одно и то же следствие (состояние системы) не может быть вызвано несколькими разными вариантами причин?

> > Здесь нечего доказывать.
> > Это очевидно.

> > 5 + 5 + 5 = 15
> > 3 + 10 + 2 = 15
> > 6 + 8 + 1 = 15

> Значит, если на колесах механической счетной машины выставить 4 и 6, то можно однозначно сказать, что она покажет после завершения суммирования - 10!
> Но если на машине уже стоит 10, то невозможно определить, что именно с чем складывалось.
> Значит, счетная машина постоянно теряет информацию... странно, правда?

Дорогой Falcon!
Я уже устал повторять всем участникам форума одну и ту же, очень простую внщь, которая, почему-то никак не откладывается в головах участников форума.
А именно.
"Потеря информации" - это тоже информация.
"Отсутствие информации" - это тоже информация.
"Ошибки информации" - это тоже информация и т.д.

Поэтому - ничего странного.

Что же касается "закона сохранения информации", то без этого закона информацию просто невозможно измерить.
Хотим мы того, или не хотим, но измерять информацию мы можем лишь после того, как примем этот закон.
В противном случае информация так навсегда и останется "болтовней".

Ozes


> >

> > >Значит, счетная машина постоянно теряет информацию... странно, правда?

> Ничего странного. Все макроскопические вычислители рассеивают тепло. Они необратимы. Однако, при более внимательном рассмотрении, может оказаться, что ваш арифмометр, складывая 4+6 стучит не так, как при сложении 3+7. А это означает, что информация не теряется, а улетает в окружающее пространство в виде звуков, стуков и.т.д.

Ваш подход к информации очень похож на стук дятла.

Ozes


> Теория вероятностей -- следствие КМ, но не наоборот.

Ну уж это Вы хватили...
Где это в ТВ Вы видели хотя бы намеки на упоминание КМ?
Да и как они могли появиться тогда, когда КМ еще и в помине не было.

Может быть и алгебра с геометрией - тоже следствия КМ?


> Так об этом и речь :)
> Меня не слишком интересует практика методов шифрования. Что важно, любая передача информации имеет стадию кодирования.
> Любой физический эксперимент можно представить как передачу и прием информации, закодированной неким алгоритмом.

Господин qqruza!
Прошу не обижаться, поскольку у меня нет желания Вас обидеть.
Я просто стараюсь быть объективным.
Но мне кажется, что физическая информация закодирована для Вас слишком сложно.
У Вас слишком узкий "физический кругозор".

Ozes


> Я уже приводил пример нескрываемого шифра. Длина ключа равна длине сообщения. Ключ используется только один раз. Это реально используется военными для особо критических случаев.

Это уже не шифрование, а самообман! С таким же успехом можно вместо доставки ключа доставить и само сообщение.
Просто считайте, что ключ является частью сообщения, а Вы разделили его на две половинки.

Нет - шифрование подразумевает МНОГОКРАТНОЕ повторение процедуры с одним ключом.В этом и цель шифрования! Но при этом взлом ключа - только дело времени.
Чем больше получено шифрограмм, тем вероятнее взлом.

Но я отвлекся. Это все не информация!
Информация, содержащаяся в любом (и зашифрованном и нет) сообщении занимает объем, равный произведению числа символов в сообщении на число символов в примененном алфавите. Хоть верьте, хоть не верьте - но это так!
И от наличия ключа этот объем никак не зависит...


> > >Значит, счетная машина постоянно теряет информацию... странно, правда?

> Ничего странного. Все макроскопические вычислители рассеивают тепло. Они необратимы. Однако, при более внимательном рассмотрении, может оказаться, что ваш арифмометр, складывая 4+6 стучит не так, как при сложении 3+7. А это означает, что информация не теряется, а улетает в окружающее пространство в виде звуков, стуков и.т.д.

Когда я говорю про арифмометр - я говорю про его модель, представленную мной.
Модель может быть бесшумной и крутиться без трения.
Любая конкретная физическая система может быть приближена к модели с заданной точностью. Точность определяется только доступными технологиями.
Так что же по-Вашему - идеальная модель теряет информацию, а очень близкая к идеальной реальная - сразу же сохраняет???
При этом уровень шумов, нагрева, излученияможет быть исчезающе малым, но вся "потерянная" казалось бы информация, разбегается по этим утечкам, как тараканы по щелям?!
Это тоже противоречит тому самому "закону сохранения информации".

> Однако, я не настаиваю на сохранении информации в обычном утилитарном смысле. Информация субъективна. Информация может переходить в латентное (нераспознаваемое субъектом) состояние. И тогла, мы УСЛОВНО должны считать, что она потеряна. Хотя, объективно, будучи определена, как мера сложности на фундаментальном уровне она сохраняется. То же самое имеет отношение и к энтропии. В связи с этим мне хочется задать следующий провокационный вопрос:
> Как вы думаете, не является ли процесс редукции фон Неймана процессом возникновения информации?

Увы, не помню, про что там...
Но я лично считаю, что всякий случайный процесс может быть вычислен с ЛЮБОЙ точностью (теоретически, конечно), если будет извлечена из него необходимая информация. Поэтому информация не может возникать. Когда Вы подбрасываете монетку, вселенная уже содержит информацию о том, какой стороной она упадет.

> По всей видимости Вы только недавно стали обдумывать эти вопросы.

Это точно :)


> При этом уровень шумов, нагрева, излученияможет быть исчезающе малым, но вся "потерянная" казалось бы информация, разбегается по этим утечкам, как тараканы по щелям?!
> Это тоже противоречит тому самому "закону сохранения информации".

Ничему это не противоречит.

> > В связи с этим мне хочется задать следующий провокационный вопрос:
> > Как вы думаете, не является ли процесс редукции фон Неймана процессом возникновения информации?

> Увы, не помню, про что там...
> Но я лично считаю, что всякий случайный процесс может быть вычислен с ЛЮБОЙ точностью (теоретически, конечно), если будет извлечена из него необходимая информация. Поэтому информация не может возникать. Когда Вы подбрасываете монетку, вселенная уже содержит информацию о том, какой стороной она упадет.

Это Вы круто сказали!
Дорогой Falcon!
Вам следовало бы знать, что случайный процесс вообще не может быть вычислен,
поскольку функция распределения "невычислима".
Она постулируется.
Поэтому ни о какой точности здесь не может быть и речи.

> > По всей видимости Вы только недавно стали обдумывать эти вопросы.

> Это точно :)

Ozes



> В КМ это происходит. Насколько я понимаю, КМ превращается сейчас из физической теории в математическую. Из теории, описывающей взаимодействие физических объектов в теорию, заменяяющую теорию вероятностей.
> Несколько неудачно выразился...

Да уж!
Очень неудачно.
Вообще говоря, квантовая маханика - это "огрызок" классической механики.
Так ее воспринимал сам Нильс Бор.
То же самое можно сказать и о теории относительности.

> Основа КМ -- представление об амплитудах, волновая функция, становится математическим понятием, более фундаментальным, чем вероятность. Теория вероятностей -- следствие КМ, но не наоборот.

Не следует выдумывать и постулировать глупости.

Ozes


> > Я уже приводил пример нескрываемого шифра. Длина ключа равна длине сообщения. Ключ используется только один раз. Это реально используется военными для особо критических случаев.

> Это уже не шифрование, а самообман! С таким же успехом можно вместо доставки ключа доставить и само сообщение.
> Просто считайте, что ключ является частью сообщения, а Вы разделили его на две половинки.

> Нет - шифрование подразумевает МНОГОКРАТНОЕ повторение процедуры с одним ключом.
Это неверно. Применяются на практике и однократные ключи.
> В этом и цель шифрования! Но при этом взлом ключа - только дело времени.
> Чем больше получено шифрограмм, тем вероятнее взлом.

> Но я отвлекся. Это все не информация!
> Информация, содержащаяся в любом (и зашифрованном и нет) сообщении занимает объем, равный произведению числа символов в сообщении на число символов в примененном алфавите. Хоть верьте, хоть не верьте - но это так!
> И от наличия ключа этот объем никак не зависит...

Вы так много восклицательных знаков пишете. Видимо полагаете, что я -- начинающий студент :)
И в общем-то правильно, если не учитывать то, что я вам уже говорил про уровни и вложенность. В символах первого уровня инкапсулированы символы второго.
Если пятна на бумажке расплылись, то информацию о пятнах (первый уровень) вы получите, а вот буквы (второй уровень) не распознаете.
На каждом уровне свое количество информации.


>
> > В КМ это происходит. Насколько я понимаю, КМ превращается сейчас из физической теории в математическую. Из теории, описывающей взаимодействие физических объектов в теорию, заменяяющую теорию вероятностей.
> > Несколько неудачно выразился...

> Да уж!
> Очень неудачно.
> Вообще говоря, квантовая маханика - это "огрызок" классической механики.
> Так ее воспринимал сам Нильс Бор.
> То же самое можно сказать и о теории относительности.

> > Основа КМ -- представление об амплитудах, волновая функция, становится математическим понятием, более фундаментальным, чем вероятность. Теория вероятностей -- следствие КМ, но не наоборот.

> Не следует выдумывать и постулировать глупости.
А для вас что ни скажи -- все глупости.


> > Так об этом и речь :)
> > Меня не слишком интересует практика методов шифрования. Что важно, любая передача информации имеет стадию кодирования.
> > Любой физический эксперимент можно представить как передачу и прием информации, закодированной неким алгоритмом.

> Господин qqruza!
> Прошу не обижаться, поскольку у меня нет желания Вас обидеть.
> Я просто стараюсь быть объективным.
> Но мне кажется, что физическая информация закодирована для Вас слишком сложно.
> У Вас слишком узкий "физический кругозор".

Очень хорошо.
Буду теперь знать вашу оценку моих высказываний.


> > Теория вероятностей -- следствие КМ, но не наоборот.

> Ну уж это Вы хватили...
Да?
> Где это в ТВ Вы видели хотя бы намеки на упоминание КМ?
> Да и как они могли появиться тогда, когда КМ еще и в помине не было.

> Может быть и алгебра с геометрией - тоже следствия КМ?

Удивительно! Написал странное утверждение, и даже вопроса, а почему я так считаю, нет. Все заранее очевидно.
Бред какой-то :((


> > Я не очень понял, о чем вы здесь...
> > Получение информации субъектом -- прямое вмешательство в систему.

> Несомненно. Но для начала стоит определиться с термином "информация"

> > > > Известно, что при измерении квантового объекта мы получаем информацию о его состоянии, но и сам объект переходит в состояние, скоррелированное с полученной информацией (редукция).

> Вот Менский с этим не согласен.
Почему вы так решили, что он не согласен?
> Но не о нем речь, а о полученной информации. Как она выглядит? Вот получили, повлияли при получении на систему, но получили. Какое количество (в метрах, килограммах или распределении вероятности)?

Все равно не понял. Почему именно в метрах?


> > Давайте несколько упростим ситуацию. Пусть мы имеем случайную комбинацию 0 и 1 длинной в N знаков. Пусть эта информация и есть наш ключ. Кто запрещает нам используя генератор случайных чисел эксперементировать до тех пор, пока мы не получим искомую комбинацию? Что то я вспоминаю о обезьянах перед печатными машинками и пишущими уже написанные книги(-:.

> Как вы определите, что ключ найден.
рткалдапшвсбсчщничтоназемленепроходитбесследнолопшгнпшщнщзлд
также как и Вы прочли сообщение написанное сверху(-:.
В этом сообщении может стоять инструкция пользования ключом.
Сообщение записанное азбукой Морзе с помощью нулей вместо точек,
1 вместо тире можно будет также прочитать.
Если я Вас правильно понял, то под информацией Вы подразумеваете сообщениие, измерительные данные, в общем нечто содержащее смысл.
Кто или что мешает нам искать смысл в некотором сообщении?

Кстати Вы ещё не ответили на вопрос о информации заключенных в генах. Кто или что считывает эту информацию, осознаёт её и применяет эту информацию на практике констрируя организмы похожие на родителя/родителей?
Неужели эта информация субъективна?
С уважением До.


> > Пусть мы имеем случайную комбинацию 0 и 1 длинной в N знаков. Пусть эта информация и есть наш ключ. Кто запрещает нам используя генератор случайных чисел эксперементировать до тех пор, пока мы не получим искомую комбинацию? Что то я вспоминаю о обезьянах перед печатными машинками и пишущими уже написанные книги(-:.

> Обезьяны - хороший генератор шума. Посадим много-много обезьян, вот вам и параллельные процессы.
В этом и заключалась моя мысль.
> В конце-концов Вы видите, что одна обезьяна напечатала Вам "Идиота" Достоевского, и Вы рады: "текст расшифрован!"
Поправлю- не техт расшифрован а мы получили доступ к некоторой информации.
Чтобы расшифровать техт надо получить ключ хотя бы такой примитивный как читай каждую 3-ю букву зашифрованного сообщения. Применяем этот ключ и смотрим есть ли смысл в прочитанном таким образом сообщении. Если смысл есть, то мы имеем искомый ключ. Кстати этот ключ может быть одноразовым как это предлагает уважаемый Qqruza -т.е. для конкретного сообщения его можно использовать только один раз. Тем не менее и одноразовый ключ можно найти. По крайней мере поляки и англичане с помощью "бомбы" вычислили принцип на котором работала знаменитая немецкая шифровальная дисковая машина "Энигма". Немцы конечно сами виноваты, тем что пользовались "одноразовым" ключём целый день.

Криптография

Энигма
Схематический рисунок

> Потом заглядываете в творение соседней обезьянки и видите Евангелие от Матфея (допустим, книга той же длины)

> Так что же было зашифровано на самом деле? Чье жизнеописание?

Чьи жизнеописания зашифрованны в "Войне и мире"?
Как отличить правду от вымысла?
С уважением До.


> > Рассмотрим систему зарядов расположенных на некотором расстоянии друг от друга. Начнём смещать механическим методом один из зарядов этой системы.

> Чтобы система зарядов находилась в равновесии, необходимо, чтобы силы, действующие на каждый заряд в отдельности были в сумме равны нулю.
Проблем нет - если пользоваться не только теоремой Ирншоу(Earnshaw Theorem)но и вспомогательными методами как движение на орбите или просто стенки ограничивающие движение одноимённых зарядов.
> Или, на худой конец, произведению массы заряда на его ускорение - это для случая вращения зарядов.

> > Будет ли смещение этого заряда влиять на расположение других зарядов?

> Понятно, что при смещении заряда равновесие будет нарушаться. Это приведет к перераспределению остальных зарядов таким образом, чтобы равновесие восстановилось...
Совершенно верно.
> > Через какое время t заряды "узнают" о смещении этого заряда если расстояние до него составляет S?

> Эйнштейн утверждал (и я не вижу причин не соглашаться с ним), что они "узнают" об этом через время t = S/c, где с - скорость света.
Так и в течении этого времени Вы готовы пожертвовать принципом суперпозиций?
> Именно с такой скоростью распространяется всякое изменение электрического поля, да и всех прочих полей.
Сэтой скоростью распространяется энергия.
> > Что Вы слышали о retardierten или avancierten Wellen?
> > Фейнман описывает это процес чувствования электростатических сил действающих на ускоренный заряд Q со стороны тех зарядов Вселенной которые готовы поглотить излучение этого заряда в тот же миг когда происходит сдвиг этого заряда Q.
> Думаю, что это что-то из области мистики, ВД и внутриходов.
Ну почему.Рассмотрим ЦМ такой замкнутой системы. Скорость этого ЦМ после сдвига заряда измениться не может.Значит сдвиг заряда Q должен вызвать сдвиг других зарядов так, чтобы ЦМ системы не подвёргся никаким ускорениям. Согласны?
Теперь рассмотрим ситуацию когда заряд Q уже сдвинут а остальные заряды этого ещё не знают. Неувязочка получается.

> > Есть ли этот процесс по Вашему обмен информацией?
> Если бы этот процесс действительно существовал - то все учебники физики пришлось бы выкинуть на помойку (ИМХО).
А это почему? Ведь з-ны сохранения не нарушаются.
> > > Я уже определял термин "информация" как набор характеристик. Так вот, этот самый набор характеристик передатчика оказывает влияние на набор характеристик переносчика информации. Так и происходит ее передача. Прием информации - это изменение характеристик приемника под воздействием носителя информации.

> > Как Вы рассматриваете тогда запутанные состояния?

> Увы, я их не рассматриваю (предпочитаю не лазить в дебри КМ) - подожду, пока их распутают :)
Запомним.
> > Принадлежит ли спин частицы к набору характеристик?
> Конечно, раз его наличие объективно.
> Можно даже представить себе некий канал связи, основанный на спиновой модуляции потока частиц :-)
Но здесь Вы вдруг говорите про объективность и Вам приходиться рассматривать запутанные состояния как наблюдаемый факт от которого не отмахнёшься.
И теперь? Объективны ли запутанные состояния или нет?
С уважением, До.



> > > > Кстати, доказано, что любой шифр может быть взломан за конечное количество попыток и неподбираемых ключей не существует.
> > > Это неверно.

> > Скажите это компаниям, занимающимся защитой информации - они Вам памятник поставят :)

> Я уже приводил пример нескрываемого шифра. Длина ключа равна длине сообщения. Ключ используется только один раз. Это реально используется военными для особо критических случаев.
Вы отодвигаете проблему не решая последнюю. Если я Вас правильно понял, то одноразовый ключ работает по принципу если, то.Если сообщение содержит такую то особую комбинацию символов, делай то-то и то-то. Но как была осуществленна эта договорённость? Как гарантируется тайность этой договорённости?
С уважением До.



> > Скажите это компаниям, занимающимся защитой информации - они Вам памятник поставят :)

> Ширпотреб вскрывается, "хорошая" кодировка - нет. Без памятников. Это просто используется, и давно. Не все шифровки второй мировой декодированы. Просто "хорошая" кодировка экономически не выгодна.

Интересна история метода шифровки использованная американцами во второй мировой войне которую не удалось "взломать". Идея была просто гениальна. Сообщения которые должны были шифроваться переводились с английского на один практически неизвестный язык индейского племени.Потом информация передавалась чуть ли не открытым текстом и переводилась обратно на английский.

Тем не менее "хорошую кодировку" не разрешит ни одна держава.
Но это уже другая опера. А хакеры сообща уже не раз доказывали что и "хорошую кодировку" можно "взломать".
С уважением До.


> ><<Так что же по-Вашему - идеальная модель теряет информацию, а очень близкая к идеальной реальная - сразу же сохраняет???>>

Если Вы, уважаемый F1, проанализируете работу арифмометра, то поймете, что он просто не будет работать без трения. По крайней мере Вы не сможете придумать как заставить его остановиться при получении результата. Ваша идеальная модель работать не будет! Для макроскопического вычисления нужна диссипация. Впрочем Вы и сами пришли к этому. Однако, Беннет показал, что как будто это не обязательно. Он построил модель обратимого вычислителя на биллиардных шарах. Значит и арифмометр можно сделать без трения? Но здесь нужно понимать одну тонкость. Дело в том, что процесс вычисления, действительно можно сделать обратимым. Но он сам по себе никому не нужен!. А считывание результата вычисления уже не может обойтись без диссипации. То есть можно сделать арифмометр, который будет считать, и даже в какой-то момент в его выходном регистре промелькнет результат вычисления. Однако, если Вы захотите зафиксировать (защелкнуть) этот результат, осознать его чтобы использовать в дальнейшем, то вы не обойдетесь без диссипации. Аналогичная ситуация имеет место и для квантового компьютера. Само вычисление – унитарно, но считывание результата (измерение) уже не может быть обратимо. Эти вещи невозможно понять оставаясь в классичеком русле понимания.
Коллапс квантового состояния (редукция) это тот самый необратимый процесс, который и защелкивает результат вычисления. Этот процесс генерирует субъективную информацию. С другой, объективной т.з этот процесс вскрывает латентную информацию.

> ><<Это тоже противоречит тому самому "закону сохранения информации". >>

Совершенно верно – противоречит. Потому, как нет такого закона для субъективной информации. Здесь термин «субъективной» использован в отношении информации, доступной для субъекта (наблюдателя).



>
> > > > > Кстати, доказано, что любой шифр может быть взломан за конечное количество попыток и неподбираемых ключей не существует.
> > > > Это неверно.

> > > Скажите это компаниям, занимающимся защитой информации - они Вам памятник поставят :)

> > Я уже приводил пример нескрываемого шифра. Длина ключа равна длине сообщения. Ключ используется только один раз. Это реально используется военными для особо критических случаев.
> Вы отодвигаете проблему не решая последнюю. Если я Вас правильно понял, то одноразовый ключ работает по принципу если, то.Если сообщение содержит такую то особую комбинацию символов, делай то-то и то-то. Но как была осуществленна эта договорённость? Как гарантируется тайность этой договорённости?

Берется исходный текст сообщения в бинарном виде. Это N бит.
Берется ключ, случайная последовательность бит длины N.
Шифрование состоит в применении побитовой операции "исключающего ИЛИ". Это обратимая операция. Исходный текст восстанавливается повторным применением ключа.
Технически осуществляется так. В "центре" записывается дискета с белым шумом от физического источника. Примерение алгоритмов псевдослучайных чисел не практикуется, т.к. требуется достаточно длинная последовательность случайных чисел. Дискета копируется и 2й экземпляр курьером отвозится на точку, с которой требуется особо секретная связь по открытому каналу.
Поскольку длина каждого сообщения много меньше длины ключа, записанного на дискете, то при передаче каждого сообщения используется новый кусок ключа. До тех пор, пока запас случайных чисел не иссякнет. После этого изготавливают и везкт другую дискету.
Понятно, что подобную связь можно наладить только в том случае, когда существует гарантировано секретная передача ключа.
Это шифр принципиально нераскрываем, если нет копии такой дискеты. Подбор ключа для достижения осмысленного текста бессмысленен, поскольку дает все множество осмысленных текстов длины N.


> > Не следует выдумывать и постулировать глупости.
> А для вас что ни скажи -- все глупости.

Неправда Ваша. Все, кроме собственных... :)


> Как отличить правду от вымысла?
Хороший вопрос. Именно его я Вам и задал, по сути.


> Теория вероятностей -- следствие КМ, но не наоборот.

Возможно, Вы специально сформулировали в провокационной форме?
Я бы выразился помягче: можно построить теорию вероятностей на аксиоматике КМ.
Хотя я лично в этом сомневаюсь.

Известно, что построение матаппарата КМ ведется с постоянной оглядкой на классику (принцип соответствия). Так и ТВ явно или неявно присутствует при этом, хотя и понято это было не сразу.

Возможно, это все связано лишь с тем, что психологически тяжело создавать что-то содержательное на абсолютно пустом месте.

Наверное, можно просто формально подойти к вопросу и сказать: "введем то-то и то-то с такими-то правилами действия над ними и рассмотрим их свойства"... и после долгих и нудных выкладок воскликнуть: "смотрите, а мы получили спектр атома водорода!" (или дифракцию электронов, и т.п...)
Возможно, это более правильно, и мешает такому изложению лишь то, что оно слишком абстрактно.


> > Теория вероятностей -- следствие КМ, но не наоборот.

> Возможно, Вы специально сформулировали в провокационной форме?
> Я бы выразился помягче: можно построить теорию вероятностей на аксиоматике КМ.
> Хотя я лично в этом сомневаюсь.
Это требует работы, но я не сомневаюсь в результате.
Спектральная мера `уже борелевских мер, но те меры, которые не являются спектральными очень плохи и вряд ли полезны для приложений ТВ. Так что вероятностная мера, построенная на КМ, вероятно, охватывает все приложения ТВ.
Из ТВ невозможно вывести КМ, поскольку она не рассматривает несовместные события.

> Известно, что построение матаппарата КМ ведется с постоянной оглядкой на классику (принцип соответствия). Так и ТВ явно или неявно присутствует при этом, хотя и понято это было не сразу.
> Возможно, это все связано лишь с тем, что психологически тяжело создавать что-то содержательное на абсолютно пустом месте.
Я думал над этим и склоняюсь к мысли, что верно последнее. Но доказательства нет. Возможно лишь построить контрпример, но я таких не знаю. Может есть идеи?

> Наверное, можно просто формально подойти к вопросу и сказать: "введем то-то и то-то с такими-то правилами действия над ними и рассмотрим их свойства"... и после долгих и нудных выкладок воскликнуть: "смотрите, а мы получили спектр атома водорода!" (или дифракцию электронов, и т.п...)
> Возможно, это более правильно, и мешает такому изложению лишь то, что оно слишком абстрактно.


> Из ТВ невозможно вывести КМ, поскольку она не рассматривает несовместные события.
Это-то не вызывает сомнений... :)

> > Возможно, это все связано лишь с тем, что психологически тяжело создавать что-то содержательное на абсолютно пустом месте.
> Я думал над этим и склоняюсь к мысли, что верно последнее. Но доказательства нет. Возможно лишь построить контрпример, но я таких не знаю. Может есть идеи?
Это требует серьезного размышления, пока ничего содержательного сказать не могу...
Самым содержательным ответом было бы, конечно, построение новой логической структуры КМ, основанной на несколько иной аксиоматике, из которой бы следовали и нынешние постулаты КМ, и ТВ...
Возможно, на этом пути найдется новый подход и к решению современных проблем КМ.


> > > > Информация - это связи, установленные между воздействием и реакцией на него.

> > > Почти правильно, но не совсем.Ваше определение больше подходит для информационного взаимодействия, а не самой информации. Взгляните на мое первое сообщение от 12 мая to ignorant.

> > И все-таки...

> > Допустим, что я произношу "Пи". Какую иформацию Вы получили?

> > Вероятно найдется много желающих сказать, что получены два байта информации, но ведь это не сама информация, а только объем переданного сигнала.

> > Возможно Вы вспомните число Пи, но я-то хотел, чтобы Вы сходили за пивом. Почему так получилось? Да, мы с Вами предварительно не договорились, какая реакция должна быть на этот сигнал, т.е. не установили связь между сигналом и реакцией на него.

> > Наверно запах разлагающейся туши животного у Вас не вызовет ничего кроме отвращения, но вот для австралийского варана нет ничего приятнее этого запаха. Для него это запах пищи.

> > Согласен с Вами, что в системе работают информационные взаимосвязи. Вот они-то и определяют реакцию на сигнал.

> > Так может быть информация триедина. Сигнал-связь-реакция.

> Извините, что встреваю, но в приведенном Вами случае акт передачи информации включает не только произнесение слова "Пи", но и все предварительные договоренности. Договоренности же сводятся только к КВАНТОВАНИЮ сигнала.
> В Вашем случае условия квантования не оговорены, поэтому нельзя сказать, какой именно объем информации Вы передали.

Ну и что? От того, что мы не знаем, какой объем информации мы передали, самой информации хуже не станет. Речь идет не об объеме, а собственно о самой информации.

Я простой малограмотный туземец и не знаю, что такое квантование. Лично я ни с кем о квантовании не договаривался, но хочу передать Вам информацию о том, что мне надо пива.

> Как только Вы договоритесь о возможном наборе сигналов, равном N - все встанет на свои места - передаваемый объем информации равен произведению N на количество переданных сигналов!

Пусть мы имеем 32 буквы. Передаем 3 буквы (не те, о которых Вы сразу подумали). Тогда по-вашему "передаваемый объем информации" равен 32*3=96 неизвестных единиц.

>
> Таким образом, установленная связь между сигналом и реакцией НЕ является передаваемой информацией. Информация, на мой взгляд - это НОМЕР связи из детерминированного НАБОРА связей.

Надо отличать собственно информацию от носителя, с помощью которого она передается.

А если Вам молча передадут дохлую крысу, наверно у Вас сразу возникнет вопрос: "Что бы это значило?". И еще много других вопросов может быть даже с неприличными добавлениями. Но, получив носитель без предварительной договоренности, Вы не получите информацию. А может дохлая крыса означает, что Вы выиграли в лотерею автомобиль?


> > Хорошо бы сначала поставить вопрос о том, что же это вообще такое, прийти к общему знаменателю, а потом обсуждать...

> А я это давно предлагал - сформулировать определение!
> Но четкого так никто и не дал, да и мое не критиковали толком...

Наверное, потому что Ваше определение тавтологично по сути, перечитайте внимательно:
"Информация... - это... набор... характеристик".

Ну и ряд мелочей типа "однозначно воспроизвести ... последовательность событий"
а как быть тогда с информацией о взрыве сверхновой или коллапсе черной дыры? Позволит ли какой-либо "набор характеристик" нам воспроизвести это?

Или оговорка "с заданной точностью", которая сразу же вносит абсолютный субьективизм в определение.

Вряд ли удастся дать общее и точное определение, никому пока не удалось...
И тавтологии вряд ли можно избежать, все равно получится вроде "набора характеристик", или "сведений", или "данных" и т.п...


> Почка на березе чем-нибудь отличается от почки человека? Слово "информация" тоже имеет несколько значений. У того же Менского есть словосочетание "изъятие информации" при измерении. Он же не об уменьшении численного значения одного параметра говорит, а просто обращается к интуитивному восприятию.

Вот это, кстати, ув. Менский хорошо загнул. Действительно, производя измерения, мы неизбежно разрушаем объект исследования и свои инструменты, внося в них энтропию, не свойственную им в момент начала опыта. В пределе Эйнштейна-Подольского-Розена, измерение полностью разрушает объект, на чём и основана квантовая неопределённость. То есть, "изъятие информации" это взаимодействие с объектом со всеми вытекающими последствиями, как ни банально это звучит.


> Тем не менее "хорошую кодировку" не разрешит ни одна держава.
Ширпотребовскую, и будет (то есть это факт) права.
> Но это уже другая опера. А хакеры сообща уже не раз доказывали что и "хорошую кодировку" можно "взломать".
Против лома... Проще всего купить.


> > Эйнштейн утверждал (и я не вижу причин не соглашаться с ним), что они "узнают" об этом через время t = S/c, где с - скорость света.
> Так и в течении этого времени Вы готовы пожертвовать принципом суперпозиций?
> > Именно с такой скоростью распространяется всякое изменение электрического поля, да и всех прочих полей.
> Сэтой скоростью распространяется энергия.

Как Вы представляете себе энергию в чистом виде?
Это что - поле? Ну, потенциальная энергия связана с полем, а как может распространяться кинетическая?

> Ну почему.Рассмотрим ЦМ такой замкнутой системы. Скорость этого ЦМ после сдвига заряда измениться не может.Значит сдвиг заряда Q должен вызвать сдвиг других зарядов так, чтобы ЦМ системы не подвёргся никаким ускорениям. Согласны?
> Теперь рассмотрим ситуацию когда заряд Q уже сдвинут а остальные заряды этого ещё не знают. Неувязочка получается.

Вы рассматриваете систему зарядов с чисто механистических позиций, забывая при этом про посредника - поле!
Неувязочка возникает, потому что поле как посредник тоже обладает свойствами, влияющими на всю механику системы - всякое возмущение в поле распространяется от источника к приемнику в виде волнового процесса. Наверное, поле тоже обладает неким подобием удельной массы, упругости и т.п.
Конечно, по сравнению с массой самих зарядов это ничтожные величины, но скорость света - колоссальная величина - вот все вместе и устраняет ту самую неувязочку...

> > Если бы этот процесс действительно существовал - то все учебники физики пришлось бы выкинуть на помойку (ИМХО).
> А это почему? Ведь з-ны сохранения не нарушаются.

Думаю, если подумать, то всякое мгновеннодействие на расстоянии как раз и вызовет нарушение законов сохранения и даже ПСС.
Где то в лекциях по СТО я читал подробное доказательство, да вот ссылку потерял...

> > > Как Вы рассматриваете тогда запутанные состояния?
> > Увы, я их не рассматриваю (предпочитаю не лазить в дебри КМ) - подожду, пока их распутают :)
> Но здесь Вы вдруг говорите про объективность и Вам приходиться рассматривать запутанные состояния как наблюдаемый факт от которого не отмахнёшься.
> И теперь? Объективны ли запутанные состояния или нет?

Я же говорил - не владею я КМ и не знаю, что такое запутанные состояния!
Тем не менее, считаю, что всякая "запутанность" - следствие неполного знания физических параметров и законов системы. Если "высший разум" учтет все тонкости системы, то все ее состояния окажутся строго детерминированными.
(если конечно это из той оперы:)

С уважением, Falcon


> > Вот Менский с этим не согласен.
> Почему вы так решили, что он не согласен?

Вся статья именно про это.

> > Но не о нем речь, а о полученной информации. Как она выглядит? Вот получили, повлияли при получении на систему, но получили. Какое количество (в метрах, килограммах или распределении вероятности)?

> Все равно не понял. Почему именно в метрах?

Вы часто говорите о потере информации, сколько ее можно потерять? Если не в метрах, то в килограммах. Серьезно - если мы говорим об объеме (количестве) информации, то надо определить единицу измерения, и процедуру.


> > Нет - шифрование подразумевает МНОГОКРАТНОЕ повторение процедуры с одним ключом.
> Это неверно. Применяются на практике и однократные ключи.

Я же говорил уже, что в этом случае под информацией следует понимать сумму шифровка + ключ. Уничтожив ключ Вы безвозвратно теряете часть информации. Так в чем тогда вопрос? Исчезает ли при этом оставшаяся часть? Думаю, что остается, просто ей не воспользоваться.

> > Информация, содержащаяся в любом (и зашифрованном и нет) сообщении занимает объем, равный произведению числа символов в сообщении на число символов в примененном алфавите. Хоть верьте, хоть не верьте - но это так!
> > И от наличия ключа этот объем никак не зависит...

> Вы так много восклицательных знаков пишете. Видимо полагаете, что я -- начинающий студент :)
Нет, это я от чувствств:)

> И в общем-то правильно, если не учитывать то, что я вам уже говорил про уровни и вложенность. В символах первого уровня инкапсулированы символы второго.
> Если пятна на бумажке расплылись, то информацию о пятнах (первый уровень) вы получите, а вот буквы (второй уровень) не распознаете.
> На каждом уровне свое количество информации.

Согласен. И чем ниже уровень - тем больше информации он содержит.
Просто мы под полезной информацией понимаем ту часть всей информации, которая позволяет воссоздать модель соответствующего уровня.
И только Г.Б., обладая ВСЕЙ информацией, содержащейся в листочке текста сможет создать точную копию этого листочка.
Те, кто пытается скопировать стодолларовую банкноту, знают, на сколько это трудно :)


> Наверное, потому что Ваше определение тавтологично по сути, перечитайте внимательно:
> "Информация... - это... набор... характеристик".

> Ну и ряд мелочей типа "однозначно воспроизвести ... последовательность событий"
> а как быть тогда с информацией о взрыве сверхновой или коллапсе черной дыры? Позволит ли какой-либо "набор характеристик" нам воспроизвести это?

> Или оговорка "с заданной точностью", которая сразу же вносит абсолютный субьективизм в определение.

> Вряд ли удастся дать общее и точное определение, никому пока не удалось...
> И тавтологии вряд ли можно избежать, все равно получится вроде "набора характеристик", или "сведений", или "данных" и т.п...

С этого все и начинается: http://physics.nad.ru/newboard/messages/36435.html


> Наверное, потому что Ваше определение тавтологично по сути, перечитайте внимательно:
> "Информация... - это... набор... характеристик".

Вы имеете в виду неясность понятия "характеристика"?

> Ну и ряд мелочей типа "однозначно воспроизвести ... последовательность событий"
> а как быть тогда с информацией о взрыве сверхновой или коллапсе черной дыры? Позволит ли какой-либо "набор характеристик" нам воспроизвести это?

Каждый человек, читая про взрыв сверхновой, воспроизводит этот процесс в своем мозгу. Причем, в зависимости от уровня знаний в данной области, с большей или меньшей степенью точности. Т.е. используя большее или меньшее количество характеристик оригинала. Конечно, я не Господь Бог, и не могу использовать и миллиардной доли ВСЕГО набора характеристик такого процесса, но если речь пойдет о поведении созданной мной программы для компьютера, то (иногда)я могу практически с абсолютной точностью мысленно смоделировать ситуацию, происходящую с ней и понять причину происшедшего.

> Или оговорка "с заданной точностью", которая сразу же вносит абсолютный субьективизм в определение.

Для абсолютно точного моделирования физической системы требуется бесконечно большой объем информации о ней, разве не так?
Поэтому, наверное, по аналогии с теорией вероятности, стоит рассматривать информационные объемы через информационные плотности.

Так, например, аналоговый сигнал несет в себе бесконечный объем информации в каждый момент времени. Как же узнать объем информации, передаваемый таким сигналом в единицу времени?
Есть зависимость плотности вероятности этого сигнала от амплитуды. Есть спектральная плотность такого сигнала.
Если представить трехмерный график такой штуковины, то объем под этой самой фигурой и будет некоей мерой информационного потока.
За единицу можно принять аналогичным образом вычисленный объем, занимаемый не сигналом, а шумом при постоянном значении сигнала...

> Вряд ли удастся дать общее и точное определение, никому пока не удалось...

Попытка - не пытка...


> > Но я лично считаю, что всякий случайный процесс может быть вычислен с ЛЮБОЙ точностью (теоретически, конечно), если будет извлечена из него необходимая информация. Поэтому информация не может возникать. Когда Вы подбрасываете монетку, вселенная уже содержит информацию о том, какой стороной она упадет.

> Это Вы круто сказали!
> Дорогой Falcon!
> Вам следовало бы знать, что случайный процесс вообще не может быть вычислен,
> поскольку функция распределения "невычислима".
> Она постулируется.

Вообще то я имел в виду другое: я считаю, что любой случайный процесс в природе - это непознанный детерминированный процесс.

А вот про невычислимость функции распределения круто сказали Вы.

Может быть Вы будете утверждать, что невозможно рассчитать, к примеру, вероятность выигрыша на американской рулетке для конкретной комбинации ставок?

Или невозможно рассчитать функцию распределения плотности вероятности сигнала на выходе согласованного фильтра при заданном отношении сигнал/шум и уровне полезного сигнала на входе?
Чем же тогда теория обнаружения занимается, постулированием?

Falcon.


> Пусть мы имеем 32 буквы.

Т.е. приняли пятибитовое кодирование.

> Передаем 3 буквы (те, о которых Вы сразу подумали). Тогда по-вашему "передаваемый объем информации" равен 32*3=96 неизвестных единиц.

Итого 15 бит информации.


> > Как только Вы договоритесь о возможном наборе сигналов, равном N - все встанет на свои места - передаваемый объем информации равен произведению N на количество переданных сигналов!

> Пусть мы имеем 32 буквы. Передаем 3 буквы (не те, о которых Вы сразу подумали). Тогда по-вашему "передаваемый объем информации" равен 32*3=96 неизвестных единиц.

Нет, не так!
Сигнал в данном случае - это комбинация из трех букв. А размер набора сигналов
определяется передатчиком. Например, только один символ в наборе (именно та трехбуквенная комбинация, о которой упоминалось вскользь). Приемник, приняв этот символ, реагирует на эту информацию должным образом.
В таком случае объем передаваемой информации составляет 1 бит.

> Надо отличать собственно информацию от носителя, с помощью которого она передается.

Безусловно, как надо отличать массу кирпича от самого кирпича...

> А если Вам молча передадут дохлую крысу, наверно у Вас сразу возникнет вопрос: "Что бы это значило?". И еще много других вопросов может быть даже с неприличными добавлениями. Но, получив носитель без предварительной договоренности, Вы не получите информацию. А может дохлая крыса означает, что Вы выиграли в лотерею автомобиль?

Объем информации при передаче дохлой крысы не зависит от договоренностей, что это означает. Важно только то, могут ли передать кроме нее что-нибудь еще, и с какой вероятностью.

Вы противопоставляете понятия "информация" и "объем информации", почему?
Попробуйте противопоставить понятия "масса" и "мера инертности".
Как и масса, информация - это мера. Мера информативности, если хотите...


> > Пусть мы имеем 32 буквы.

> Т.е. приняли пятибитовое кодирование.

> > Передаем 3 буквы (те, о которых Вы сразу подумали). Тогда по-вашему "передаваемый объем информации" равен 32*3=96 неизвестных единиц.

Обратите внимание, что так вычислять не я предложил, а F1.

> Итого 15 бит информации.


> > Информация физической системы - это количественная мера ее подвижности...

> Напротив, не-подвижности. С числом возможных состояний растёт именно энтропия. Идеальная информация - это нерушимая каменная скрижаль, вручённая ув. Моисею.

Не согласен!
Если бы каменная скрижаль была действительно нерушима, Г.Б. не смог бы на ней высечь Заветы.
Если система не имеет вариантов своего состояния, то она не может перенести информацию, а значит, и не содержит таковой!
Чем больше возможных состояний в системе, тем большую информацию несет в себе каждое конкретное состояние.
Это очевидно: для описания положения системы с одной степенью свободы нужно передать один параметр, а для системы с тремя - уже три!
Поэтому энтропия по Шеннону отличается от информативности только логарифмическим масштабом и знаком...


> > Надо отличать собственно информацию от носителя, с помощью которого она передается.

> Безусловно, как надо отличать массу кирпича от самого кирпича...

Слава Богу! Хоть это Вы понимаете.

> > А если Вам молча передадут дохлую крысу, наверно у Вас сразу возникнет вопрос: "Что бы это значило?". И еще много других вопросов может быть даже с неприличными добавлениями. Но, получив носитель без предварительной договоренности, Вы не получите информацию. А может дохлая крыса означает, что Вы выиграли в лотерею автомобиль?

> Объем информации при передаче дохлой крысы не зависит от договоренностей, что это означает. Важно только то, могут ли передать кроме нее что-нибудь еще, и с какой вероятностью.

> Вы противопоставляете понятия "информация" и "объем информации", почему?

Я не противопотавляю. Это действительно разные понятия, а Вы этого не понимаете.

> Попробуйте противопоставить понятия "масса" и "мера инертности".
> Как и масса, информация - это мера. Мера информативности, если хотите...

Мне больше нравятся температура и градус. Что такое температура? Определение подберите сами то, которое Вам больше нравится. А градус - это единица измерения температуры.


> Не согласен!
> Если бы каменная скрижаль была действительно нерушима, Г.Б. не смог бы на ней высечь Заветы.
> Если система не имеет вариантов своего состояния, то она не может перенести информацию, а значит, и не содержит таковой!
> Чем больше возможных состояний в системе, тем большую информацию несет в себе каждое конкретное состояние.
> Это очевидно: для описания положения системы с одной степенью свободы нужно передать один параметр, а для системы с тремя - уже три!
> Поэтому энтропия по Шеннону отличается от информативности только логарифмическим масштабом и знаком...

Скрижаль несла в себе значительно больше физической информации, пока её не исчеркали :)
Вы:"Чем больше возможных состояний в системе, тем большую информацию несет в себе каждое конкретное состояние."
А вот здесь важный момент. Дело в том, что в этом вопросе есть путаница в области определений. Мы сами множим энтропию, поэтому объект, содержащий разрушения, адекватные ожидаемому нами уровню энтропии, представляется нам сложным и "развитым". То есть, определение физической информации, зачастую противоположно "информации бытовой". Это - важный момент. И плохо исследованный. Разум каким-то образом ориентируется в хаосе, который творит, и этот хаос для него информационно значим.
Перечитал и про себя подумал "Где же карета скорой?", но переписывать не стал. Что-то здесь есть.



> Вот это, кстати, ув. Менский хорошо загнул. Действительно, производя измерения, мы неизбежно разрушаем объект исследования и свои инструменты, внося в них энтропию, не свойственную им в момент начала опыта.

Разрушаем? Вносим в них энтропию?
(Создаем? Выносим из них энтропию?)
(Усложняем описание системы? Увеличиваем энтропию? Или уменьшаем?)

> В пределе Эйнштейна-Подольского-Розена, измерение полностью разрушает объект, на чём и основана квантовая неопределённость. То есть, "изъятие информации" это взаимодействие с объектом со всеми вытекающими последствиями, как ни банально это звучит.

Если "изъятие информации" произошло, то сколько мы ее изъяли? Ну расскажите же как измерить изъятое!



> > Вы противопоставляете понятия "информация" и "объем информации", почему?

> Я не противопотавляю. Это действительно разные понятия, а Вы этого не понимаете.

Пока не определимся, что такое информация - спорить бессмысленно!


> Мне больше нравятся температура и градус. Что такое температура? Определение подберите сами то, которое Вам больше нравится. А градус - это единица измерения температуры.

Ради Бога! Температура - градус, Информация - байт.
Градус - единица измерения температуры.
Байт - единица измерения информации.

Я говорю про понятие информации такое же, как и понятие температуры: количественная мера.

Вы можете называть этим термином объем информации, а под информацией понимать смысловое содержание сообщений - ваше право, но ведь мы говорим про физические понятия, а не абстрактные философские.
Если здесь упоминают закон сохранения информации, то уж наверное в смысле ее объемов, а не содержания.



> А вот про невычислимость функции распределения круто сказали Вы.

> Может быть Вы будете утверждать, что невозможно рассчитать, к примеру, вероятность выигрыша на американской рулетке для конкретной комбинации ставок?

Вероятность вычислить можно.
А функцию распределения вероятностей нельзя, поскольку предел не существует.

> Или невозможно рассчитать функцию распределения плотности вероятности сигнала на выходе согласованного фильтра при заданном отношении сигнал/шум и уровне полезного сигнала на входе?

Насчет согласованных фильтров не знаю.
Поэтому ничего не могу сказать.

> Чем же тогда теория обнаружения занимается, постулированием?

Я не знаю такую теорию, и не знаю, чем она занимается.

Расскажите, если знаете.

Ozes



> > Вы отодвигаете проблему не решая последнюю. Если я Вас правильно понял, то одноразовый ключ работает по принципу если, то.Если сообщение содержит такую то особую комбинацию символов, делай то-то и то-то. Но как была осуществленна эта договорённость? Как гарантируется тайность этой договорённости?

> Берется исходный текст сообщения в бинарном виде. Это N бит.
> Берется ключ, случайная последовательность бит длины N.
Максимальное кол-во таких возможных ключей равно 2^N?
> Шифрование состоит в применении побитовой операции "исключающего ИЛИ". Это обратимая операция. Исходный текст восстанавливается повторным применением ключа.
Перебирая все комбинации бита длинной N можно "случайно" наткнуться на правильный одноразовый ключ?
> Понятно, что подобную связь можно наладить только в том случае, когда существует гарантировано секретная передача ключа.
Предположим, что гарантия есть.
> Это шифр принципиально нераскрываем, если нет копии такой дискеты. Подбор ключа для достижения осмысленного текста бессмысленен, поскольку дает все множество осмысленных текстов длины N.
Принципиально нероаскрывем в смысле невозможно?
Или маловероятен?
Тогда имея кол-во процессоров равное 2^N мы в за короткое время найдём искомый ключ.
Для одноразового ключа приходиться не приходиться считать всё зановокакой нибудь другой процессор может применив свою комбинацию найти смысл в посланном сообщении. Т.к. длина N вероятно большая, то можно делить работу между процессорами задавая каждому определённый блок для обработки.
По принципу римлян: "Дели и властвуй".

С уважением До.


> > Как отличить правду от вымысла?
> Хороший вопрос. Именно его я Вам и задал, по сути.
Прийдётся отвечать(-:.
Предлагаю делать проверку на правдивость.Т.е. искать связи с действительностью. То что это иногда неимоверный труд мне понятно. Но уже каждая выявленная неточность между написанным в конкретной книге с общеизвестным материалом заставляет нас начать сомневатьсяч в правдивости написанного.
Именно так мы и делаем когда слушаем собеседника если вдруг замечаем логические ошибки в его рассказе.
Естественно если ложь идеально сконструированна, то она может слыть правдой -до поры до времени... Так работает большинство научных теорий(-:.
С уважением До.


> > > Хорошо бы сначала поставить вопрос о том, что же это вообще такое, прийти к общему знаменателю, а потом обсуждать...

> > А я это давно предлагал - сформулировать определение!
> > Но четкого так никто и не дал, да и мое не критиковали толком...

> Наверное, потому что Ваше определение тавтологично по сути, перечитайте внимательно:
> "Информация... - это... набор... характеристик".

> Вряд ли удастся дать общее и точное определение, никому пока не удалось...
> И тавтологии вряд ли можно избежать, все равно получится вроде "набора характеристик", или "сведений", или "данных" и т.п...
Можно я попробую?
Информация - это комбинация параметров частиц некоторой системы.
Под параметрами предполагаются такие величины как масса,заряд,спин, скорость частицы.
Считаю что замена "набора" на "комбинацию" подчёркивает искомую информационность.
На эту тему вспоминается семиэлементная лампа представляющая числа от 0 до 9.
Лишь определённая комбинация светящихся элементов даёт нам сведения о конкретном числе, все остальные комбинации не соответствующие числам от 0 до 9 можно рассматривать как шум.
С уважением До.



> Как Вы представляете себе энергию в чистом виде?
Обычно как излучение, фотон. Имеющего конкретный импульс, конкретную эффективную массу и самое главное имеющее конкретное положение в пространстве в любой момент времени. Надо заметить , что эффективная масса зависит от относительной скорости наблюдателя к источнику излучения.
> Это что - поле? Ну, потенциальная энергия связана с полем, а как может распространяться кинетическая?
Поле по моему мнению не распространяется -он есть. Что распространяется так это возмущение в этом поле -см. что я писал сверху.

> > Теперь рассмотрим ситуацию когда заряд Q уже сдвинут а остальные заряды этого ещё не знают. Неувязочка получается.

> Вы рассматриваете систему зарядов с чисто механистических позиций, забывая при этом про посредника - поле!
Ну заменим поле на пружинки если хотите. Я уже пытался рассматривать безуспешно этот вопрос распространения информации со скоростями большими чем скорость звука в материале см. здесь:
http://physics.nad.ru/newboard/messages/36503.htmlСсылка
> Неувязочка возникает, потому что поле как посредник тоже обладает свойствами, влияющими на всю механику системы - всякое возмущение в поле распространяется от источника к приемнику в виде волнового процесса. Наверное, поле тоже обладает неким подобием удельной массы, упругости и т.п.
В случае с зарядами - скорость возмущения равна скорости света.
> Конечно, по сравнению с массой самих зарядов это ничтожные величины, но скорость света - колоссальная величина - вот все вместе и устраняет ту самую неувязочку...
Тут Вы неправы - скорость света велика, но это не панацея от всех бед- проблема отодвигается Вами вероятно в сторону неопределённости Гейзенберга, так? Но возможны ли принципиально нарушение з-на сохранения импульса? Я думаю что нет.

> > А это почему? Ведь з-ны сохранения не нарушаются.

> Думаю, если подумать, то всякое мгновеннодействие на расстоянии как раз и вызовет нарушение законов сохранения и даже ПСС.
Если энергия перемещается со скоростью большей скорости света, то имеем явное нарушение з-нов сохранения. Я же говорю про мгновенность информации.
Наглядно это выглядит примерно так. Предположим мгновенной передачи информации нет. Тогда Вы скажем договариваетесь пойти со знакомой в кино. Причём эта знакомая начинает собираться в тот момент когда Вы звоните в дверь. Т.е. Вы имеете дополнительные потери времени на сборку.

Теперь ситуация предложенная мной -имеем мгновенную связь через телефон. Вы сообщаете Вашей знакомой, что через 10 минут Вы будете у её подъезда. Когда Вы подходите к её подъезду Вы видите свою знакомую выходящую из её дома.
Потерь на сборку нет.
> > > > Как Вы рассматриваете тогда запутанные состояния?
> > > Увы, я их не рассматриваю (предпочитаю не лазить в дебри КМ) - подожду, пока их распутают :)
З-н сохранения импульса замкнутой системы кстати требует такой запутанности -изменения импульса одной части системы ведёт неумолимо к изменению импульса другой части этой же системы.

> > Но здесь Вы вдруг говорите про объективность и Вам приходиться рассматривать запутанные состояния как наблюдаемый факт от которого не отмахнёшься.
> > И теперь? Объективны ли запутанные состояния или нет?

> Я же говорил - не владею я КМ и не знаю, что такое запутанные состояния!
> Тем не менее, считаю, что всякая "запутанность" - следствие неполного знания физических параметров и законов системы. Если "высший разум" учтет все тонкости системы, то все ее состояния окажутся строго детерминированными.
> (если конечно это из той оперы:)
Да тут я согласен на счёт детерминации- это вытекает из предположения о существовании з-на сохранения информации.Но в силу того что:
"Нельзя объять необъятное" непредсказуемость поведения системы в следующий момент остаётся. Так что свобода воли есть лишь незнание того что нас ожидает.
Вот если бы мы знали как выглядить предложенная Вами детерменичность, то это означало бы тогда действительно отсутствие свободы воли. Или или.
С уважением, До.


>
> > Как Вы представляете себе энергию в чистом виде?
> Обычно как излучение, фотон. Имеющего конкретный импульс, конкретную эффективную массу и самое главное имеющее конкретное положение в пространстве в любой момент времени. Надо заметить , что эффективная масса зависит от относительной скорости наблюдателя к источнику излучения.

Нет!
Эффективная масса фотона не зависит от скорости наблюдателя.

> > Это что - поле? Ну, потенциальная энергия связана с полем, а как может распространяться кинетическая?

И здесь ошибка.
Потенциальная энергия - это и есть поле (по определению!!!).

> Поле по моему мнению не распространяется -он есть. Что распространяется так это возмущение в этом поле -см. что я писал сверху.

Нет!
Возмущение тоже не распространяется (по определению поля).

> > > Теперь рассмотрим ситуацию когда заряд Q уже сдвинут а остальные заряды этого ещё не знают. Неувязочка получается.

Здесь Вы правы.

> > Вы рассматриваете систему зарядов с чисто механистических позиций, забывая при этом про посредника - поле!

Нет такого посредника!


> > Неувязочка возникает, потому что поле как посредник тоже обладает свойствами, влияющими на всю механику системы - всякое возмущение в поле распространяется от источника к приемнику в виде волнового процесса. Наверное, поле тоже обладает неким подобием удельной массы, упругости и т.п.


Нет!
Поле ничем не обладает.
Поле - это поле.
Поле - это "логическая" субстанция.

> В случае с зарядами - скорость возмущения равна скорости света.

С какой стати?

> > Конечно, по сравнению с массой самих зарядов это ничтожные величины, но скорость света - колоссальная величина - вот все вместе и устраняет ту самую неувязочку...

Здесь, вероятно, Вы чего-то не понимаете.

> Тут Вы неправы - скорость света велика, но это не панацея от всех бед- проблема отодвигается Вами вероятно в сторону неопределённости Гейзенберга, так? Но возможны ли принципиально нарушение з-на сохранения импульса? Я думаю что нет.

А если и возможны, то что это может изменить???

> > > А это почему? Ведь з-ны сохранения не нарушаются.

Кто сказал???
И что это означает???

> > Думаю, если подумать, то всякое мгновеннодействие на расстоянии как раз и вызовет нарушение законов сохранения и даже ПСС.

Не следует выдумывать глупости.

> Если энергия перемещается со скоростью большей скорости света, то имеем явное нарушение з-нов сохранения. Я же говорю про мгновенность информации.

Вы явно запутались.

> > > > > Как Вы рассматриваете тогда запутанные состояния?
> > > > Увы, я их не рассматриваю (предпочитаю не лазить в дебри КМ) - подожду, пока их распутают :)
> З-н сохранения импульса замкнутой системы кстати требует такой запутанности -изменения импульса одной части системы ведёт неумолимо к изменению импульса другой части этой же системы.

> > > Но здесь Вы вдруг говорите про объективность и Вам приходиться рассматривать запутанные состояния как наблюдаемый факт от которого не отмахнёшься.
> > > И теперь? Объективны ли запутанные состояния или нет?

> > Я же говорил - не владею я КМ и не знаю, что такое запутанные состояния!
> > Тем не менее, считаю, что всякая "запутанность" - следствие неполного знания физических параметров и законов системы. Если "высший разум" учтет все тонкости системы, то все ее состояния окажутся строго детерминированными.

5 + 5 + 5 = 15
3 + 10 + 2 = 15

С какой стати им быть детерминированными.

> > (если конечно это из той оперы:)

Вероятно, это из другой оперы.

> Да тут я согласен на счёт детерминации- это вытекает из предположения о существовании з-на сохранения информации.Но в силу того что:
> "Нельзя объять необъятное" непредсказуемость поведения системы в следующий момент остаётся. Так что свобода воли есть лишь незнание того что нас ожидает.

Все прекрасно знают, что нас ожидает.
Всех нас ожидает смерть (за исключением бессмертных).
Это все знают, но никто об этом, как правило, не говорит.
Кстати, контрольный вопрос для тех, кого беспокоит тема информации:
Что такое СМЕРТЬ с точки зрения физической информации???

Ozes


> > > Как отличить правду от вымысла?
> > Хороший вопрос. Именно его я Вам и задал, по сути.
> Прийдётся отвечать(-:.
> Предлагаю делать проверку на правдивость.

Вы не на тот вопрос отвечаете.
Данным вопросом я хотел вернуть Вас к обсуждению исходной темы, а Вы вообще сильно уклонились в сторону (что, впрочем, для Вас типично... :))

Про правду и вымысел я привел пример: Вы получили в результате перебора ключей текст "Идиота", и уверены, что расшифровали текст. Но это Ваши домыслы, Вам хочется первый осмысленный текст принять за истинный, поскольку лень дальше перелопачивать варианты (их экспоненциально много). А на самом деле, возможно, было зашифровано Евангелие от Иоанна. Его Вы тоже сможете получить, как и бесчисленное множество других осмысленных текстов. Только не сможете уверенно утверждать, какой же из них был зашифрован на самом деле.

Так как же выделить из всего множества настоящий зашифрованный текст?


> Разрушаем? Вносим в них энтропию?
> (Создаем? Выносим из них энтропию?)
> (Усложняем описание системы? Увеличиваем энтропию? Или уменьшаем?)
> Если "изъятие информации" произошло, то сколько мы ее изъяли? Ну расскажите же как измерить изъятое!

По большому счёту, энтропия вносится всегда. Можно искусственным путём создать область её убывания, но ценой превосходящего внесения её ещё куда-то. Рефрижератор замораживает продукты, но греет себя и воздух. При любом процессе "описания" она только увеличивается. Как измерить? - измерьте температуру своей экспериментальной установки по определению свойств объекта и посмотрите технические и бухгалтерские отчёты об износе, амортизации и замене её деталей.


> По большому счёту, энтропия вносится всегда.

По любому счету энтропия не вносится и не выносится. Это просто параметр. Привносится энергия, из за чего увеличивается количество степеней свободы (и то не всегда), или количество доступных системе состояний. Мои вопросы просто попытка перевести разговор на язык физики.

Если идет разговор об информации, то надо всем разговаривающим договориться о смысле этого термина. Если говорим об изменении количества информации, то надо определиться как это количество измерять и в каких единицах.



> > > Вы противопоставляете понятия "информация" и "объем информации", почему?

> > Я не противопотавляю. Это действительно разные понятия, а Вы этого не понимаете.

> Пока не определимся, что такое информация - спорить бессмысленно!

>
> > Мне больше нравятся температура и градус. Что такое температура? Определение подберите сами то, которое Вам больше нравится. А градус - это единица измерения температуры.

> Ради Бога! Температура - градус, Информация - байт.
> Градус - единица измерения температуры.
> Байт - единица измерения информации.

> Я говорю про понятие информации такое же, как и понятие температуры: количественная мера.

> Вы можете называть этим термином объем информации, а под информацией понимать смысловое содержание сообщений - ваше право, но ведь мы говорим про физические понятия, а не абстрактные философские.
> Если здесь упоминают закон сохранения информации, то уж наверное в смысле ее объемов, а не содержания.

Ну, с Вами все ясно! Закон сохранения информации? А еще существует информационное поле (вот уж где "настоящая" физика и поле деятельности для расчетов), с помощью которого экстрасенсы и гадалки предсказывают будущее и отгадывают прошлое...


> > Может быть Вы будете утверждать, что невозможно рассчитать, к примеру, вероятность выигрыша на американской рулетке для конкретной комбинации ставок?

> Вероятность вычислить можно.
> А функцию распределения вероятностей нельзя, поскольку предел не существует.

Функцию распределения вероятностей по чему? По возможным ставкам? Так если можно вычислить вероятность по одной ставке и получить тем самым одну точку этой функции, то кто мешает вычислить любое заданное количество точек и получить функцию? О каком пределе идет речь?

> > Чем же тогда теория обнаружения занимается, постулированием?

> Я не знаю такую теорию, и не знаю, чем она занимается.

> Расскажите, если знаете.

Если в двух словах, то она занимается разработкой методов оптимальной фильтрации сигналов на фоне шума и получения максимально правдоподобной оценки этих сигналов.

Рассказать не имею возможности - курс лекций, помнится, занимал не один семестр...



> > > > Вы противопоставляете понятия "информация" и "объем информации", почему?

> > > Я не противопотавляю. Это действительно разные понятия, а Вы этого не понимаете.

> > Пока не определимся, что такое информация - спорить бессмысленно!

> >
> > > Мне больше нравятся температура и градус. Что такое температура? Определение подберите сами то, которое Вам больше нравится. А градус - это единица измерения температуры.

> > Ради Бога! Температура - градус, Информация - байт.
> > Градус - единица измерения температуры.
> > Байт - единица измерения информации.

> > Я говорю про понятие информации такое же, как и понятие температуры: количественная мера.

> > Вы можете называть этим термином объем информации, а под информацией понимать смысловое содержание сообщений - ваше право, но ведь мы говорим про физические понятия, а не абстрактные философские.
> > Если здесь упоминают закон сохранения информации, то уж наверное в смысле ее объемов, а не содержания.

> Ну, с Вами все ясно! Закон сохранения информации? А еще существует информационное поле (вот уж где "настоящая" физика и поле деятельности для расчетов), с помощью которого экстрасенсы и гадалки предсказывают будущее и отгадывают прошлое...

А по-Вашему информационные системы и технологии передачи информации - это из области экстрасенсов и гадалок?


> > > Вот Менский с этим не согласен.
> > Почему вы так решили, что он не согласен?

> Вся статья именно про это.
Воможно я неудачно выразился. При взаимодействии прибора с измеряемой системой возникает запутанное состояние прибора и системы. Если рассматривать определенное состояние прибора, т.е. выбрать одну составляющую суперпозиции, то этот же процесс выглядит как редукция.
Мои воззрения на эти вещи мало отличаются от воззрений Менского.


> > > Но не о нем речь, а о полученной информации. Как она выглядит? Вот получили, повлияли при получении на систему, но получили. Какое количество (в метрах, килограммах или распределении вероятности)?

> > Все равно не понял. Почему именно в метрах?

> Вы часто говорите о потере информации, сколько ее можно потерять? Если не в метрах, то в килограммах. Серьезно - если мы говорим об объеме (количестве) информации, то надо определить единицу измерения, и процедуру.

Количество информации обычно мерят в битах


> > > Нет - шифрование подразумевает МНОГОКРАТНОЕ повторение процедуры с одним ключом.
> > Это неверно. Применяются на практике и однократные ключи.

> Я же говорил уже, что в этом случае под информацией следует понимать сумму шифровка + ключ. Уничтожив ключ Вы безвозвратно теряете часть информации. Так в чем тогда вопрос? Исчезает ли при этом оставшаяся часть? Думаю, что остается, просто ей не воспользоваться.
Это почему же следует именно так понимать? Педедача ключа и передача сообщения -- это передача разной информации.

> > > Информация, содержащаяся в любом (и зашифрованном и нет) сообщении занимает объем, равный произведению числа символов в сообщении на число символов в примененном алфавите. Хоть верьте, хоть не верьте - но это так!
> > > И от наличия ключа этот объем никак не зависит...

> > Вы так много восклицательных знаков пишете. Видимо полагаете, что я -- начинающий студент :)
> Нет, это я от чувствств:)

> > И в общем-то правильно, если не учитывать то, что я вам уже говорил про уровни и вложенность. В символах первого уровня инкапсулированы символы второго.
> > Если пятна на бумажке расплылись, то информацию о пятнах (первый уровень) вы получите, а вот буквы (второй уровень) не распознаете.
> > На каждом уровне свое количество информации.

> Согласен. И чем ниже уровень - тем больше информации он содержит.
А это откуда следует?

> Просто мы под полезной информацией понимаем ту часть всей информации, которая позволяет воссоздать модель соответствующего уровня.
> И только Г.Б., обладая ВСЕЙ информацией, содержащейся в листочке текста сможет создать точную копию этого листочка.
> Те, кто пытается скопировать стодолларовую банкноту, знают, на сколько это трудно :)

Мне почему-то кажется, что вы к любой строчке из пяти слов захотите прибавить все человеческое знание, чиобы определить коичество информации, в ней содержащееся. Или я неправ?


> Перебирая все комбинации бита длинной N можно "случайно" наткнуться на правильный одноразовый ключ?
> > Понятно, что подобную связь можно наладить только в том случае, когда существует гарантировано секретная передача ключа.
> Предположим, что гарантия есть.
> > Это шифр принципиально нераскрываем, если нет копии такой дискеты. Подбор ключа для достижения осмысленного текста бессмысленен, поскольку дает все множество осмысленных текстов длины N.
> Принципиально нероаскрывем в смысле невозможно?
Принципиально нераскрываем. Единственное, что вы знаете, получив шифровку, что она состоит из N символов. Пожалуйста, можете сами выбирать из множества сообщений длины N те, которые вы сочтете "разумными".
> Или маловероятен?
> Тогда имея кол-во процессоров равное 2^N мы в за короткое время найдём искомый ключ.
> Для одноразового ключа приходиться не приходиться считать всё зановокакой нибудь другой процессор может применив свою комбинацию найти смысл в посланном сообщении. Т.к. длина N вероятно большая, то можно делить работу между процессорами задавая каждому определённый блок для обработки.
> По принципу римлян: "Дели и властвуй".

Длина N модет быть любая. напимер 1. Только вот что этот бит зачит, 0 или 1, вы не знаете.


> > По большому счёту, энтропия вносится всегда.

> По любому счету энтропия не вносится и не выносится. Это просто параметр. Привносится энергия, из за чего увеличивается количество степеней свободы (и то не всегда), или количество доступных системе состояний. Мои вопросы просто попытка перевести разговор на язык физики.

> Если идет разговор об информации, то надо всем разговаривающим договориться о смысле этого термина. Если говорим об изменении количества информации, то надо определиться как это количество измерять и в каких единицах.

Да, между понятиями физической информации и информации бытовой в виде газеты или радиопередачи действительно есть незаполненный пробел. Им надо заниматься.


> > > > Нет - шифрование подразумевает МНОГОКРАТНОЕ повторение процедуры с одним ключом.
> > > Это неверно. Применяются на практике и однократные ключи.

> > Я же говорил уже, что в этом случае под информацией следует понимать сумму шифровка + ключ. Уничтожив ключ Вы безвозвратно теряете часть информации. Так в чем тогда вопрос? Исчезает ли при этом оставшаяся часть? Думаю, что остается, просто ей не воспользоваться.
> Это почему же следует именно так понимать? Педедача ключа и передача сообщения -- это передача разной информации.

Разная, но только в сумме получится осмысленная.

> > > Если пятна на бумажке расплылись, то информацию о пятнах (первый уровень) вы получите, а вот буквы (второй уровень) не распознаете.
> > > На каждом уровне свое количество информации.

> > Согласен. И чем ниже уровень - тем больше информации он содержит.
> А это откуда следует?

Да хотя бы из того, что бумажка, помимо записанных слов содержит еще кучу информации: о хим. составе, отпечатки пальцев, степень измятости и т.п.
А на самом верхнем уровне - после расшифровки - только один бит: "явка провалена" :-)

> Мне почему-то кажется, что вы к любой строчке из пяти слов захотите прибавить все человеческое знание, чиобы определить коичество информации, в ней содержащееся. Или я неправ?

Я уже много раз говорил, знание тут нипричем.
Строчка содержит ровно столько информации, сколько вариантов таких строчек может в данном случае написать автор.
Но это не физическая, а используемая информация, которая всегда меньше, чем физическая, определяемая носителем.


> > Вы часто говорите о потере информации, сколько ее можно потерять? Если не в метрах, то в килограммах. Серьезно - если мы говорим об объеме (количестве) информации, то надо определить единицу измерения, и процедуру.

> Количество информации обычно мерят в битах

Теперь осталось обратиться к процедуре определения ее количества при каком-либо измерении.


> Если энергия перемещается со скоростью большей скорости света, то имеем явное нарушение з-нов сохранения. Я же говорю про мгновенность информации.

Для передачи информации требуется посредник. Будь то пучок фотонов, или почтовый голубь. В общем случае посредник должен некоторым способом изменить свои свойства так, чтобы приемник их смог правильно расценить(модуляция свойств).

Имеем схему:

Передатчик(Модуляция)->Посредник->(Демодуляция)Приемник

Таким образом, Вы никакими силами не сможете передать информацию не имея физически объективного посредника - носителя.
Носитель должен иметь как минимум столько состояний, какой объем информации Вы хотите передать.

Поэтому, раз невозможна передача энергии со сверхсветовыми скоростями, то однозначно невозможна и передача с такими скоростями информации.

С уважением, Falcon.


> > > > Как отличить правду от вымысла?
> > > Хороший вопрос. Именно его я Вам и задал, по сути.
> > Предлагаю делать проверку на правдивость.

> Вы не на тот вопрос отвечаете.
> Вы вообще сильно уклонились в сторону (что, впрочем, для Вас типично... :))
В данном случае мы говорим на разные темы.
> Про правду и вымысел я привел пример: Вы получили в результате перебора ключей текст "Идиота", и уверены, что расшифровали текст. Но это Ваши домыслы, Вам хочется первый осмысленный текст принять за истинный, поскольку лень дальше перелопачивать варианты (их экспоненциально много). А на самом деле, возможно, было зашифровано Евангелие от Иоанна. Его Вы тоже сможете получить, как и бесчисленное множество других осмысленных текстов. Только не сможете уверенно утверждать, какой же из них был зашифрован на самом деле.

> Так как же выделить из всего множества настоящий зашифрованный текст?
Повоторяю мы говорили о поиске ключа а не зашифрованнной информации.
Сначала надо иметь ключ, а лишь потом заниматься дешифровкой.
Если я имею какой нибудь осмысленый техт, то гарантиии что это тискомый текст у меня нет -тут Вы правы.
Но если я имею в руках ключ который даёт мне при дешифровке конкретной зашифрованной информации логический текст который к тому же меня интерессует, то я имею то что я искал.
С уважением До.



> > Если здесь упоминают закон сохранения информации, то уж наверное в смысле ее объемов, а не содержания.

> Ну, с Вами все ясно! Закон сохранения информации? А еще существует информационное поле (вот уж где "настоящая" физика и поле деятельности для расчетов), с помощью которого экстрасенсы и гадалки предсказывают будущее и отгадывают прошлое...
Популярно это описанно здесь:
ЗСИнформ
С уважением До.


> > > > Нет - шифрование подразумевает МНОГОКРАТНОЕ повторение процедуры с одним ключом.
> > > Это неверно. Применяются на практике и однократные ключи.

> > Я же говорил уже, что в этом случае под информацией следует понимать сумму шифровка + ключ. Уничтожив ключ Вы безвозвратно теряете часть информации. Так в чем тогда вопрос? Исчезает ли при этом оставшаяся часть? Думаю, что остается, просто ей не воспользоваться.
> Это почему же следует именно так понимать? Педедача ключа и передача сообщения -- это передача разной информации.

> > > > Информация, содержащаяся в любом (и зашифрованном и нет) сообщении занимает объем, равный произведению числа символов в сообщении на число символов в примененном алфавите. Хоть верьте, хоть не верьте - но это так!
> > > > И от наличия ключа этот объем никак не зависит...

> > > Вы так много восклицательных знаков пишете. Видимо полагаете, что я -- начинающий студент :)
> > Нет, это я от чувствств:)

> > > И в общем-то правильно, если не учитывать то, что я вам уже говорил про уровни и вложенность. В символах первого уровня инкапсулированы символы второго.
> > > Если пятна на бумажке расплылись, то информацию о пятнах (первый уровень) вы получите, а вот буквы (второй уровень) не распознаете.
> > > На каждом уровне свое количество информации.

> > Согласен. И чем ниже уровень - тем больше информации он содержит.
> А это откуда следует?

> > Просто мы под полезной информацией понимаем ту часть всей информации, которая позволяет воссоздать модель соответствующего уровня.

> Мне почему-то кажется, что вы к любой строчке из пяти слов захотите прибавить все человеческое знание, чиобы определить коичество информации, в ней содержащееся. Или я неправ?


Вероятно Вы в этом случае неправы. Создание искусственного интеллекта (ИИ)столкнулось с этой проблемой уже в самом начале. Как объяснить компьютеру без контекста что имеется ввиду под словом из 4-х букв "КОСА"?

Много информации мы как багаж "таскаем" с собой даже не замечая этого.
Не зря про ИИ уже и не говорят а говорят про ИЖ(искусственная жизнь).
Машины должны получить возможность приобретения собственного "информационного багажа", а пока это не произойдёт нам прийдётся действительно к каждому короткому слову прибавлять как Вы предлагаете "все человеческое знание" а лишь потом "определять коичество информации, в ней содержащееся".
С уважением До.



> > Принципиально нераскрываем в смысле невозможно?
> Принципиально нераскрываем. Единственное, что вы знаете, получив шифровку, что она состоит из N символов. Пожалуйста, можете сами выбирать из множества сообщений длины N те, которые вы сочтете "разумными".
Запомним.
> > По принципу римлян: "Дели и властвуй".

> Длина N модет быть любая. напимер 1. Только вот что этот бит значит, 0 или 1, вы не знаете.
Метод перебора покажет какой из ключей несёт логическую информацию а какие нет.
С уважением До.


> > Если энергия перемещается со скоростью большей скорости света, то имеем явное нарушение з-нов сохранения. Я же говорю про мгновенность информации.

> Для передачи информации требуется посредник. Будь то пучок фотонов, или почтовый голубь. В общем случае посредник должен некоторым способом изменить свои свойства так, чтобы приемник их смог правильно расценить(модуляция свойств).
Так передаётся обычно информация(-:.
)->Посредник->(Демодуляция)Приемник

> Таким образом, Вы никакими силами не сможете передать информацию не имея физически объективного посредника - носителя.
Если исходить из изменения неких физических параметров требующих логического объяснения, то наличие энергии при передаче информации обязательно.
> Носитель должен иметь как минимум столько состояний, какой объем информации Вы хотите передать.
То же верно.
> Поэтому, раз невозможна передача энергии со сверхсветовыми скоростями, то однозначно невозможна и передача с такими скоростями информации.
Если бы я был в состоянии передавать информацию со сверхсветовой скоростью, то вряд ли у меня было бы время заходить на этот форум (-:.
Но почему бы не подойти к этой проблеме с другой стороны? Что запрещает нам пользоваться такой мгновенной информацией? Какой такой з-н природы? Ну узнаем мы мгновенно что сейчас происходит на Альфа Центавре и что?

Информация без энергии безопасна и з-нов сохранения не нарушает. Даже причинно-следственная связь(ПСС) от этого не страдает. ПСС базируется на конечном распространении энергии, её следствия можно наблюдать как переход энергии из одного состояния в другое.Знание некоторой инфрормации на эти процессы как таковые не влияет.
С уважением, До.


> Повоторяю мы говорили о поиске ключа а не зашифрованнной информации.
Да? И где мы об этом говорили, не напомните?

> Сначала надо иметь ключ, а лишь потом заниматься дешифровкой.
Вообще-то тогда и проблемы дешифровки нет. Обычно стоит задача - дешифровать без ключа (чем и занимались разведки всех стран). Но это не всегда возможно.

> Если я имею какой нибудь осмысленый техт, то гарантиии что это искомый текст у меня нет -тут Вы правы.
О том и речь.

> Но если я имею в руках ключ который даёт мне при дешифровке конкретной зашифрованной информации логический текст который к тому же меня интерессует, то я имею то что я искал.
Если Вы искали какой-либо осмысленный текст заданной длины, то есть методы куда более простые.


> > Повоторяю мы говорили о поиске ключа а не зашифрованнной информации.
> Да? И где мы об этом говорили, не напомните?
Естественно!Истоки



> Вообще-то тогда и проблемы дешифровки нет. Обычно стоит задача - дешифровать без ключа (чем и занимались разведки всех стран). Но это не всегда возможно.
Можно пытаться применять те ключи или подобные ключи, которыми уже обладает та или иная разведка.

> > Но если я имею в руках ключ который даёт мне при дешифровке конкретной зашифрованной информации логический текст который к тому же меня интерессует, то я имею то что я искал.
> Если Вы искали какой-либо осмысленный текст заданной длины, то есть методы куда более простые.
Я исходил из следующей ситуации: Мне известна длина ключа но не известна комбинация 0 и 1 в этом ключе. Передо мной лежит зашифрованный текст, который надо дешифрировать. Утверждение что такой текст принципиально нельзя дешифрировать я считаю поспешным.
С уважением До.


> > > Повоторяю мы говорили о поиске ключа а не зашифрованнной информации.
> > Да? И где мы об этом говорили, не напомните?
> Естественно!Истоки
Ну, если Вы так считаете... Но я тут вижу лишь угадывание зашифрованной информации перебором "ключей". Это не независимый поиск ключа.

> > Вообще-то тогда и проблемы дешифровки нет. Обычно стоит задача - дешифровать без ключа (чем и занимались разведки всех стран). Но это не всегда возможно.
> Можно пытаться применять те ключи или подобные ключи, которыми уже обладает та или иная разведка.
Если считать их идиотами.

> Я исходил из следующей ситуации: Мне известна длина ключа но не известна комбинация 0 и 1 в этом ключе. Передо мной лежит зашифрованный текст, который надо дешифрировать. Утверждение что такой текст принципиально нельзя дешифрировать я считаю поспешным.
Это строго математически доказано. Идею доказательства qqruza изложил. Что Вам еще нужно?



> > > Да? И где мы об этом говорили, не напомните?
> > Естественно!Истоки

> Ну, если Вы так считаете... Но я тут вижу лишь угадывание зашифрованной информации перебором "ключей". Это не независимый поиск ключа.


Странно, я полагал что поиск ключей и есть угадывание -в конечном итоге, тот который делает ключ наверняка не заинтересован чтобы его ключ можно было бы вычислить с помощью какой либо ф-лы.
> > > ..(чем и занимались разведки всех стран). Но это не всегда возможно.> > Можно пытаться применять те ключи или подобные ключи, которыми уже обладает та или иная разведка.
> Если считать их идиотами.

Тогда надо также считать идиoтами тех, кто дважды применяет свой ключ несмотря на умную разведку. Я больше имел ввиду под подобными ключами принцип кодировки.
> > Я исходил из следующей ситуации: Мне известна длина ключа но не известна комбинация 0 и 1 в этом ключе. Передо мной лежит зашифрованный текст, который надо дешифрировать. Утверждение что такой текст принципиально нельзя дешифрировать я считаю поспешным.
> Это строго математически доказано. Идею доказательства qqruza изложил. Что Вам еще нужно?


Упростим ситуацию. Пусть длина ключа N=2.Тогда в бинарном коде имеем 4 возможных ключа
00,01,10 и 11.
Пусть ключ 11 применяется на практике и им шифруется лишь один раз некоторое сообщение.
Если я применю все 4 ключа, то один из этих ключей(11)даст мне при дешифровке этого сообщения ту информацию которую я ожидаю.

А про какое мат. док-во говорите Вы?
ЗЫ. Ваш текст был одного цвета с моим цветом текста, т.е. бледным.Несмотря на то что ">" всегдва присутствовал.
Это из за ссылки на "истоки", или из за проблем с сервером или с моим компом?
В "просмотре" лучше не стало, придётся посылать так как есть.
С уважением До.


> > > Может быть Вы будете утверждать, что невозможно рассчитать, к примеру, вероятность выигрыша на американской рулетке для конкретной комбинации ставок?

> > Вероятность вычислить можно.
> > А функцию распределения вероятностей нельзя, поскольку предел не существует.

> Функцию распределения вероятностей по чему? По возможным ставкам? Так если можно вычислить вероятность по одной ставке и получить тем самым одну точку этой функции, то кто мешает вычислить любое заданное количество точек и получить функцию? О каком пределе идет речь?

Функция распределения - это предел количества значений в заданном диапазоне при ширине диапазона стремящемся к нулю.
Устремляя к нулю ширину диапазона автоматически устремляем к нулю и количество заданных значений в этом диапазоне.
В результате получаем неопределенность типа 0/0.
Поэтому значение вероятности в точке получить можно, а вот с функцией распределения возникают проблемы.

> > > Чем же тогда теория обнаружения занимается, постулированием?

> > Я не знаю такую теорию, и не знаю, чем она занимается.

> > Расскажите, если знаете.

> Если в двух словах, то она занимается разработкой методов оптимальной фильтрации сигналов на фоне шума и получения максимально правдоподобной оценки этих сигналов.

> Рассказать не имею возможности - курс лекций, помнится, занимал не один семестр...

Спасибо и на этом.
Я слышал, что такое существует, но ни разу не видел.

Ozes


> > > > Да? И где мы об этом говорили, не напомните?
> > > Естественно!Истоки
> > Ну, если Вы так считаете... Но я тут вижу лишь угадывание зашифрованной информации перебором "ключей". Это не независимый поиск ключа.
> Странно, я полагал что поиск ключей и есть угадывание -в конечном итоге, тот который делает ключ наверняка не заинтересован чтобы его ключ можно было бы вычислить с помощью какой либо ф-лы.
Если бы это было одно и то же, то не существовало бы разных терминов: угадывание текста и поиск ключа.
В данном случае поиск ключа методом угадывания текста дает множество решений, выбор из которого произволен. В этом смысле сама постановка задачи о поиске ключа - некорректна. Поиск ключа может дать единственное решение, если один и тот же ключ применяется многократно. Но это другая задача.

> Тогда надо также считать идиoтами тех, кто дважды применяет свой ключ несмотря на умную разведку.
Почему? Бывают очень устойчивые ключи. А идиотами можно назвать тех, кто продолжает применять ключи, которые известны противнику. Или аналогичные принципы.

> Я больше имел ввиду под подобными ключами принцип кодировки.
Смешение понятий. Принцип кодировки и ключ - разные вещи.

> Упростим ситуацию. Пусть длина ключа N=2.Тогда в бинарном коде имеем 4 возможных ключа
> 00,01,10 и 11.
> Пусть ключ 11 применяется на практике и им шифруется лишь один раз некоторое сообщение.
> Если я применю все 4 ключа, то один из этих ключей(11)даст мне при дешифровке этого сообщения ту информацию которую я ожидаю.
Откуда Вы знаете, что Вы ожидаете именно верную информацию?
Пусть сообщения означают: 00 - жду связника; 01 - явка провалена, встреча на запасной явочной квартире; 10- прошу дать новый канал связи; 11 - выйду на связь дополнительно.
и любой ключ даст осмысленное сообщение. Так какое все-таки верное?

> А про какое мат. док-во говорите Вы?
Которое Вы не поняли, хотя оно очень простое. Даже не знаю, как изложить его проще.

> ЗЫ. Ваш текст был одного цвета с моим цветом текста, т.е. бледным.Несмотря на то что ">" всегдва присутствовал.
> Это из за ссылки на "истоки", или из за проблем с сервером или с моим компом?
Вы зря вставили перед ссылкой тег < font >. Он-то все и испортил. По крайней мере надо было его закрыть. Я его убрал. И как видите, все стало нормально.


> Функция распределения - это предел количества значений в заданном диапазоне при ширине диапазона стремящемся к нулю.
> Устремляя к нулю ширину диапазона автоматически устремляем к нулю и количество заданных значений в этом диапазоне.
> В результате получаем неопределенность типа 0/0.

В таком случае по Вашей логике вычисление плотности вещества в точке тоже дает неопределенность типа 0/0, учитывая, что вещество состоит в основном из пустоты, а размерами электронов и атомных ядер можно пренебречь. Тем не менее распределение плотности - довольно типичная ситуация.

> Поэтому значение вероятности в точке получить можно, а вот с функцией распределения возникают проблемы.
Тогда Вы получите значение вероятности в каждой точке - точный ноль, т.к. событий - счетное множество, а точек на любом интервале - континуум.


> Функция распределения - это предел количества значений в заданном диапазоне при ширине диапазона стремящемся к нулю.
> Устремляя к нулю ширину диапазона автоматически устремляем к нулю и количество заданных значений в этом диапазоне.
> В результате получаем неопределенность типа 0/0.
> Поэтому значение вероятности в точке получить можно, а вот с функцией распределения возникают проблемы.

Если некая случайная величина может принимать любые значения из заданного диапазона, или на бесконечном диапазоне - например, мгновенное значение напряжения на выходе приемника, -
то вероятность того, что значение будет, скажем, РОВНО 1 вольт равна НУЛЮ.
Но в теории вероятности для этого используют не функцию распределения вероятности, а функцию распределения ПЛОТНОСТИ ВЕРОЯТНОСТИ.
Это именно предел отношения вероятности попадания значения в окрестность точки к величине этой окрестности.
Несмотря на то, что "в результате получаем 0/0" ничего страшного тут не происходит.
Интеграл в бесконечных пределах от такой функции даст всегда единицу.

Для дискретных случайных процессов используется функция распределения вероятностей, а для непрерывных - функция распределения плотности вероятности.
И та и другая прекрасно рассчитываются.

Непонятно, в чем Вы здесь видите проблему?

Falcon.


> > Функция распределения - это предел количества значений в заданном диапазоне при ширине диапазона стремящемся к нулю.
> > Устремляя к нулю ширину диапазона автоматически устремляем к нулю и количество заданных значений в этом диапазоне.
> > В результате получаем неопределенность типа 0/0.

> В таком случае по Вашей логике вычисление плотности вещества в точке тоже дает неопределенность типа 0/0, учитывая, что вещество состоит в основном из пустоты, а размерами электронов и атомных ядер можно пренебречь. Тем не менее распределение плотности - довольно типичная ситуация.

Дорогой Snowman!
Вы беретесь поучать других, имея васьма смутное представление о физике вообще, и о логике физических представлений в частности.
В одном предложении Вы, с умным видом "знающего", делаете по несколько ошибок, обвиняя, при этом, в неграмотности, своего собеседника.

Во-первых - это не моя логика, а логика предельных переходов.
Я ее не создавал.
Во-вторых - "плотность вещества" определяется как "среднее по объему", а не предельным переходом.
В-третьих - в физике, на сегодняшний день, существует три разных модели атома:
- модель атома Томсона,
- модель атома Резерфорда-Бора
- и моя модель атома (Озолина Э.Э.) (несмотря на то, что Вам это очень не нравится)
При этом тот факт, что Вы из всех этих моделей знакомы только с одной из них, говорит лишь о Вашей "физической недоразвитости".
И это - Ваши проблемы, а не мои.

> > Поэтому значение вероятности в точке получить можно, а вот с функцией распределения возникают проблемы.
> Тогда Вы получите значение вероятности в каждой точке - точный ноль, т.к. событий - счетное множество, а точек на любом интервале - континуум.

Именно это в результате и получим.

Ozes


> Во-вторых - "плотность вещества" определяется как "среднее по объему", а не предельным переходом.

А что такое мгновенная скорость, не подскажете?

> В-третьих - в физике, на сегодняшний день, существует три разных модели атома:
> - модель атома Томсона,
> - модель атома Резерфорда-Бора
> - и моя модель атома (Озолина Э.Э.) (несмотря на то, что Вам это очень не нравится)
> При этом тот факт, что Вы из всех этих моделей знакомы только с одной из них, говорит лишь о Вашей "физической недоразвитости".
> И это - Ваши проблемы, а не мои.

С сегодняшнего дня все в школах и ВУЗах должны изучать три модели атома:
Модель Томсона, модель Резерфорда-Бора, модель Озолина Э.Э.

При этом надо брать материал по модели Озолина Э.Э. прямо с его сайта, т.к. безграмотные рецензенты. Правда, это их проблемы, а не проблемы Озолина.
не принимают статьи Озолина в научные журналы.
Квантовомеханическое описание атома надо вообще запретить.
До встречи, AID.


> При этом тот факт, что Вы из всех этих моделей знакомы только с одной из них, говорит лишь о Вашей "физической недоразвитости".
> И это - Ваши проблемы, а не мои.

Кстати, вот Вы, несомненно, считаете себя образованным в физике человеком.
Скажите, Вы знаете 1.теорию относительности Лоренца-Пуанкаре
2.теорию относительности Обухова-Захарченко
3. теорию относительности А.Мамаева
4. теорию относительности Н.Чаварги
5. теорию относительности Денисова
6. теорию относительности Котельникова?

Если не знаете всех этих теорий, то это говорит лишь о Вашей "физической недоразвитости".

До встречи, AID.


> > Во-вторых - "плотность вещества" определяется как "среднее по объему", а не предельным переходом.

> А что такое мгновенная скорость, не подскажете?

> > В-третьих - в физике, на сегодняшний день, существует три разных модели атома:
> > - модель атома Томсона,
> > - модель атома Резерфорда-Бора
> > - и моя модель атома (Озолина Э.Э.) (несмотря на то, что Вам это очень не нравится)
> > При этом тот факт, что Вы из всех этих моделей знакомы только с одной из них, говорит лишь о Вашей "физической недоразвитости".
> > И это - Ваши проблемы, а не мои.

> С сегодняшнего дня все в школах и ВУЗах должны изучать три модели атома:
> Модель Томсона, модель Резерфорда-Бора, модель Озолина Э.Э.

> При этом надо брать материал по модели Озолина Э.Э. прямо с его сайта, т.к. безграмотные рецензенты. Правда, это их проблемы, а не проблемы Озолина.
> не принимают статьи Озолина в научные журналы.

Кто сказал, что не принимают.
Очень даже принимают.
К научным журналам у меня претензий нет.

> Квантовомеханическое описание атома надо вообще запретить.

Вам бы все "запрещать и не пущать".

Ozes


> > При этом тот факт, что Вы из всех этих моделей знакомы только с одной из них, говорит лишь о Вашей "физической недоразвитости".
> > И это - Ваши проблемы, а не мои.

> Кстати, вот Вы, несомненно, считаете себя образованным в физике человеком.
> Скажите, Вы знаете
1.теорию относительности Лоренца-Пуанкаре
> 2.теорию относительности Обухова-Захарченко
> 3. теорию относительности А.Мамаева
> 4. теорию относительности Н.Чаварги
> 5. теорию относительности Денисова
> 6. теорию относительности Котельникова?

Можете успокоиться, господин AID!
Я не знаю даже теорию относительности Эйнштейна.
Я, как и все великие физики, все делаю сам, с ноля.
Мне говорят идею (или у меня появляется идея) - я беру это, и записываю.
Вот и все.

> Если не знаете всех этих теорий, то это говорит лишь о Вашей "физической недоразвитости".

Само собой.
"Недоразвитые" мы.
Или "сумасшедшие".
Или "не от мира сего".
Я это слушаю с самого детства.

Ozes


> > Функция распределения - это предел количества значений в заданном диапазоне при ширине диапазона стремящемся к нулю.
> > Устремляя к нулю ширину диапазона автоматически устремляем к нулю и количество заданных значений в этом диапазоне.
> > В результате получаем неопределенность типа 0/0.
> > Поэтому значение вероятности в точке получить можно, а вот с функцией распределения возникают проблемы.

> Если некая случайная величина может принимать любые значения из заданного диапазона, или на бесконечном диапазоне - например, мгновенное значение напряжения на выходе приемника, -
> то вероятность того, что значение будет, скажем, РОВНО 1 вольт равна НУЛЮ.
> Но в теории вероятности для этого используют не функцию распределения вероятности, а функцию распределения ПЛОТНОСТИ ВЕРОЯТНОСТИ.
> Это именно предел отношения вероятности попадания значения в окрестность точки к величине этой окрестности.
> Несмотря на то, что "в результате получаем 0/0" ничего страшного тут не происходит.
> Интеграл в бесконечных пределах от такой функции даст всегда единицу.

Здесь Вы правы.
Ничего страшного в этом нет.

> Для дискретных случайных процессов используется функция распределения вероятностей, а для непрерывных - функция распределения плотности вероятности.
> И та и другая прекрасно рассчитываются.

Ну, это слишкоим круто.

> Непонятно, в чем Вы здесь видите проблему?

Нет!
Особой проблемы здесь нет.
Подумаешь, какую то функцию распределения посчитать не можем.
Переживем и без нее.
Постулируем что-нибудь.

Ozes



> Я, как и все великие физики, все делаю сам, с ноля.
Ну вот, теперь всё ясно, по крайней мере с диагнозом :)

Ньютон, кстати, делал прямо противоположное утверждение,
про то, что с плеч гигантов дальше видно.
Но если г-н Озолин сам гигант мысли, ему карабкаться на чужие плечи не пристало.


>
> > Я, как и все великие физики, все делаю сам, с ноля.
> Ну вот, теперь всё ясно, по крайней мере с диагнозом :)

А Вы кто - врач, или физик?

> Ньютон, кстати, делал прямо противоположное утверждение,
> про то, что с плеч гигантов дальше видно.

Я же не Ньютон.
И где найти гигантов?

> Но если г-н Озолин сам гигант мысли, ему карабкаться на чужие плечи не пристало.

Само собой.

Если Вы хотите возразить, то возражайте конкретно.
А если Вам возразить нечем, то довольствуйтесь тем, что есть.

Ozes



> > С сегодняшнего дня все в школах и ВУЗах должны изучать три модели атома:
> > Модель Томсона, модель Резерфорда-Бора, модель Озолина Э.Э.

> > При этом надо брать материал по модели Озолина Э.Э. прямо с его сайта, т.к. безграмотные рецензенты. Правда, это их проблемы, а не проблемы Озолина.
> > не принимают статьи Озолина в научные журналы.

> Кто сказал, что не принимают.
> Очень даже принимают.
> К научным журналам у меня претензий нет.

Совсем недавно Вы писали, что не публикуете статьи бесплатно.
Тогда дайте ссылку, пожалуйста, на статьи Озолина Э.Э. в научных журналах.
До встречи, AID.



> >
> > > Я, как и все великие физики, все делаю сам, с ноля.
> > Ну вот, теперь всё ясно, по крайней мере с диагнозом :)

> А Вы кто - врач, или физик?

Хоть и говорят в Сети "don't feed the trolls", я Вам немного подыграю.

В ходе дискуссии с Вами и после чтения Ваших опусов мне (как и всем присутствующим) стала очевидна Ваша полная беспомощность в понимании условий простейших физических задач, в элементарных математических выкладках и в элементарных логических построениях.
Потом Вы ставите себя в один ряд с великими физиками, а всех оппонентов сразу записываете в идиоты (без обсуждения разногласий по существу, просто "не согласен со мной - идиот").
Ну и о чём теперь можно говорить, кроме как о диагнозе?


> > >
> > > > Я, как и все великие физики, все делаю сам, с ноля.
> > > Ну вот, теперь всё ясно, по крайней мере с диагнозом :)

> > А Вы кто - врач, или физик?

> Хоть и говорят в Сети "don't feed the trolls", я Вам немного подыграю.

> В ходе дискуссии с Вами и после чтения Ваших опусов мне (как и всем присутствующим) стала очевидна Ваша полная беспомощность в понимании условий простейших физических задач, в элементарных математических выкладках и в элементарных логических построениях.

Mike!
Ну подумайте сами, и рассудите здраво!
Зачем великому физику понимать "простейшее" и знать "элементарное"???
Для этого есть школы для "простейших организмов".

> Потом Вы ставите себя в один ряд с великими физиками, а всех оппонентов сразу записываете в идиоты (без обсуждения разногласий по существу, просто "не согласен со мной - идиот").
> Ну и о чём теперь можно говорить, кроме как о диагнозе?

Спасибо за диагноз.
Теперь можете следовать на "форум врачей".

Ozes




> Зачем великому физику понимать "простейшее" и знать "элементарное"???
> Для этого есть школы для "простейших организмов".

"Великий" не может называться физиком, если он занимается не физикой.
Есть несколько необходимых фундаментальных условий для того, чтобы теория называлась физической. Одно из них - теория должна описывать и предсказывать явления, происходящие в реальном мире. Если она этого не делает, ей может ещё найтись место в математике, там единственное условие - логическая строгость, а описывать можно что угодно.

Если некая теория предсказывает, что тело под действием собственной тяжести проскользит за одинаковое время по наклонной плоскости и по жёлобу, изогнутому по окружности или по циклоиде - такая теория не описывает явлений реального мира (что доказывается простым опытом). Она описывает только бред в голове её автора. Поэтому автор не может называться физиком.


> Ozes

Дайте ссылку, пожалуйста, на статьи Озолина Э.Э. в научных журналах.
До встречи, AID.


> Дорогой Snowman!
Тронут Вашим обращением... :)

> Вы беретесь поучать других, имея васьма смутное представление о физике вообще, и о логике физических представлений в частности.
В чем-то могу с Вами согласиться. Т.к. думаю, что во многих областях физики мои представления, действительно, нельзя назвать кристалльно ясными. Мне до сих пор не до конца понятны многие вещи. Про теории типа суперструн вообще молчу: тут я знаю лишь поверхностные сведения.

> В одном предложении Вы, с умным видом "знающего", делаете по несколько ошибок, обвиняя, при этом, в неграмотности, своего собеседника.
Был бы Вам признателен, если бы Вы указали мне хоть одну. Думаю, что ошибки у меня есть, несомненно, как у любого человека. Правда, смею надеяться, что по нескольку ошибок в одном предложении я все же не делаю...

> Во-первых - это не моя логика, а логика предельных переходов.
> Я ее не создавал.
Это я понимаю, что не создавали. И понимаю, что Вы понимаете ее на свой лад, как и всё остальное...

> Во-вторых - "плотность вещества" определяется как "среднее по объему", а не предельным переходом.
То есть о распределении плотности говорить не приходится? "Средняя плотность", и все тут? А как, например, возникают конвективные ячейки Бенара в замкнутом объеме? Можете Вы объяснить одной средней плотностью в данном объеме?

> В-третьих - в физике, на сегодняшний день, существует три разных модели атома:
> - модель атома Томсона,
похоронена Резерфордом
> - модель атома Резерфорда-Бора
Уточнена Шредингером (подвел строгую математическую базу)

> - и моя модель атома (Озолина Э.Э.) (несмотря на то, что Вам это очень не нравится)
знакомился. прочел первый абзац. ПОЛНЫЙ АБЗАЦ...

> При этом тот факт, что Вы из всех этих моделей знакомы только с одной из них, говорит лишь о Вашей "физической недоразвитости".
С двумя. В Вашей разбираться не стал. Но мнение имею вполне определенное...
> И это - Ваши проблемы, а не мои.
Хорошо, пусть мои. У меня вообще много проблем...
А знаете, у кого их совсем нет?...

> > Тогда Вы получите значение вероятности в каждой точке - точный ноль, т.к. событий - счетное множество, а точек на любом интервале - континуум.
> Именно это в результате и получим.
Это Ваше предложение - так считать вероятности. И что потом делать с ВАШЕЙ функцией, которая в каждой точке в точности равна нулю? Засунуть в одно место? Больше ничего толкового с ней не сделаешь.


> Кто сказал, что не принимают.
> Очень даже принимают.
Принимают. И даже рецензируют. Но не публикуют.
Это легко проверить поиском в инете.

> К научным журналам у меня претензий нет.
У меня - тоже. Даже наоборот.


> > Потом Вы ставите себя в один ряд с великими физиками, а всех оппонентов сразу записываете в идиоты (без обсуждения разногласий по существу, просто "не согласен со мной - идиот").
> > Ну и о чём теперь можно говорить, кроме как о диагнозе?
> Спасибо за диагноз.
> Теперь можете следовать на "форум врачей".
Чтобы поставить элементарный диагноз относительно здоровья (простуда, ушиб, кишечная инфекция и т.п.) - не обязательно быть врачом.

Для того, чтобы поставить диагноз об уровне физической квалификации - тем более не обязательно быть врачом. Но обязательно - быть физиком.
Я ставлю такие диагнозы каждые полгода. И очень многим.
В особо сложных случаях приходится собирать консилиум. Повторно.
И потом, бывает, ставится диагноз: "неизлечим"...



> > В-третьих - в физике, на сегодняшний день, существует три разных модели атома:
> > - модель атома Томсона,
> похоронена Резерфордом
> > - модель атома Резерфорда-Бора
> Уточнена Шредингером (подвел строгую математическую базу)

В каком месте Шредингер подвел строгую математическую базу? Что вы лепите?
С медициной у Вас лучше получается: здесь Вы хотя бы имеете медицинскую энциклопедию и иногда в нее заглядываете. Ваше место также на форумах по медицине.


> В каком месте Шредингер подвел строгую математическую базу? Что вы лепите?
Ищущий да обрящет. А кто не ищет (не хочет) - тот и не найдет.

> С медициной у Вас лучше получается: здесь Вы хотя бы имеете медицинскую энциклопедию и иногда в нее заглядываете. Ваше место также на форумах по медицине.
Вы прям как официант в ресторане - каждому место указываете, куда пройти.
Может, еще и проводите?


> > В каком месте Шредингер подвел строгую математическую базу? Что вы лепите?
> Ищущий да обрящет. А кто не ищет (не хочет) - тот и не найдет.

Расшифруйте эту красивую фразу. Что это значит?
А если Шредингер что-то подвел под строгую математическую базу, то покажите - что конкретно.


> > Для дискретных случайных процессов используется функция распределения вероятностей, а для непрерывных - функция распределения плотности вероятности.
> > И та и другая прекрасно рассчитываются.
> Ну, это слишкоим круто.

В каком смысле?

> > Непонятно, в чем Вы здесь видите проблему?
> Нет!
> Особой проблемы здесь нет.
> Подумаешь, какую то функцию распределения посчитать не можем.
> Переживем и без нее.
> Постулируем что-нибудь.

Выражаясь Вашими словами - так это Ваши проблемы - полистайте учебники надосуге...
Какую конкретно функцию распределения Вы не можете посчитать?
Неужто для Вас непроходимым тупиком является расчет, например, функции распределения результатов бросания монетки?
А как насчет белого шума, пропущенного через квадратичный детектор?


> Я не знаю даже теорию относительности Эйнштейна.
> Я, как и все великие физики, все делаю сам, с ноля.

Вам уже яблоко на голову падало, или Вы пока на подходе?
Ну уж в ванну то точно залезали - значит Архимеда влет обошли.
Только, умоляю Вас, поосторожнее, когда вместо Шварца порох изобретать станете, а то Вам еще за грозами наблюдать за Рихтера...


> Есть несколько необходимых фундаментальных условий для того, чтобы теория называлась физической. Одно из них - теория должна описывать и предсказывать явления, происходящие в реальном мире. Если она этого не делает, ей может ещё найтись место в математике, там единственное условие - логическая строгость, а описывать можно что угодно.

Есть много примеров тому, когда чисто математическая теория описывала и предсказывала явления, которые смогли обнаружить спустя столетия...
Но никогда математика не создавала и не могла создать теорий, противоречащих наблюдаемым физическим явлениям.

Так что, если у кого-то теория противоречит практике, то она и для математики не пригодится...


Физика в анимациях - Купить диск - Тесты по физике - Графики on-line

Реклама:
Rambler's Top100