Абстракция - отбрасывание несущественного, акцентирование главного, прием с успехом практикуемый еще античными ораторами, получил особенное развитие как способ моделирования реальности. Уже древние геометры манипулировали не имеющими размеров точками и простирающимися в бесконечность прямыми. (Словарь)
The vermin only teaze and pinch
Their foes superior by an inch.
So, naturalists observe, a flea
Has smaller fleas that on him prey;
And these have smaller still to bite'em,
And so proceed ad infinitum.
Jonathan Swift "On Poetry: a Rhapsody"
Первый постулат (Бинарности):
Универсум бинарен.
Это знали еще древние: Инь и Янь, Добро и Зло, Чет и Нечет.
Неважно, как именно названы эти две дуальные сущности, например, Пространство и Время, вещество и энергия, важно, что они ортогональны. Кажется удачной терминология Ф. Файрстоуна - Продольные и Поперечные величины. А. Вейник использует термины Заряд и Потенциал, или, в общем случае, Экстенсиал и Интенсиал. П. Кузнецов, вслед за Л. Бартини пишет о Протяженности и Длительности.
Второй постулат (Сохранения):
Для произвольной Системы всегда можно задать пару наблюдаемых сопряженных (ортогональных) параметров (p,d), описывающих ее движение.
Движение консервативной Системы с одной степенью свободы описывается траекторией на (фазовой) плоскости этих двух параметров (p,d), таких, что
S = p * d = const (топологический инвариант)
Произвольные деформации системы, в том числе, разрывные, сохраняющие площадь S на фазовой плоскости образуют группу движений, для которых выполняется Закон Сохранения, при этом S является мерой, так что целое равно сумме своих частей.
Пусть контрольная поверхность (в терминологии А. Гухмана) отсекает часть Универсума, выполняя бисекцию по некоторому признаку X. Это равносильно введению Инверсии, делящей все на X и Не-X.
Произвольная система описывается парой двойственных координатных систем, одну из которых можно трактовать как внешнюю, и вторую - как внутреннюю.
Введем двух (эйнштейновских) наблюдателей, разместив их по разные стороны контрольной поверхности и свяжем с ними две различные системы отсчета.
Тогда, для произвольной точки контрольной поверхности, независимо от выбора системы координат, измерения обоих наблюдателей для проходящего через поверхность потока должны совпасть, поскольку относятся к тому же самому объекту. Уравняв отсчеты в обоих системах, получаем описание преобразования из одной системы отсчета в другую.
Определение:
Биективное преобразование, переводящее координаты одной системы в другую, будем называть Трансформатором T.
Примеры: Рычаг Архимеда, электрический трансформатор, преобразование Фурье.
С формальной точки зрения, нет разницы между рычагом Архимеда и Преобразованием Лоренца.
Третий постулат (Двойственности):
Для любой произвольной бисекции по любому признаку, найдется объект X, такой что X тождественен со своей инверсией Не-X (автодуален).
Двойственность и релятивизм
В силу симметрии параметров {p,d}, выбор того, что считать силой F и что - реакцией J на нее, произволен и может быть изменен на обратный. Таким образом, всякой системе S(p,d) соответствует двойственная ей S'(p',d') с обратным выбором силы и реакции.
С другой стороны, двойственность обусловлена самим выбором того, что именно принято за систему - внутренняя или внешняя, по отношению к контрольной поверхности, часть Универсума.
Иными словами, задавая дискриминирующий признак на множестве (границу раздела), мы расслаиваем его на два взаимодополняющих подмножества, организованных по факту наличия дискриминирующего признака (философы называют это диалектикой).
Двойственность системы естественно ведет к двум наблюдателям Эйнштейна, с разных позиций разглядывающих тот же самый объект. Не обязательно это должен быть световой луч, насквозь протыкающий две системы - любая точка на контрольной поверхности неизбежно будет общей для внутренней и внешней систем и любая общая для двух разных наблюдателей точка может трактоваться как одновременно рассматриваемая изнутри и снаружи.
Таким образом, граница раздела (контрольная поверхность) является трансформатором, в котором преломляется любой трансграничный поток и всякий раз, когда ставится знак равенства в математическом уравнении, это апелляция к понятиям трансформатора и инварианта (тождественности разделяемого объекта).
Четвертый постулат (Равновесия):
Две, приведенные в соприкосновение системы, стремятся к уравниванию своих параметров.
Симметрия - это просто другая запись Закона Сохранения - при трансляции (переносе) вдоль координат системы, объект не меняется.
В евклидовом пространстве, это трансляция Галилея, в СТО - Лоренца итд.
В простых трансляциях можно наблюдать сохранение геометрической формы, в более сложных (топология) - только связности (например, бублик топологически эквивалентен кофейной чашке), в еще более сложных трансляциях не сохраняется даже связность, но сохраняется объем - можно (симметрично) разлить на троих.
Вся Физика построена на сохранении объема - Энергии.
Во многих процессах не сохраняется ни форма, ни связность, ни что-либо еще - только Энергия.
Эти принципы кажутся достаточными, для описания произвольной обратимо деформируемой системы.
Из Теории Систем необходимо изгнать понятие "эмерджентности", этот пережиток витализма. Движения Системы - это пермутация ее элементов (сдвиг, поворот, отражение, инверсия итп). Инварианты движения (Сохранение Энергии итп) и задают тип Системы.
Трисекция - обычный прием декомпозиции. Как пример, можно назвать SVD (разложение матриц), метод Фортескью (симметричных составляющих), разложения N-угольников.
Второй важный прием - фрактализация: Система разбивается на подсистемы с сохранением Меры. В частном случае, эти подсистемы самоподобны (например, триангуляция). Как пример, ряды Фурье (эквивалентирование объекта и фрактала по Энергии).
Удобной и наглядной аналогией представляются электрические цепи, изначально представленные тройственным набором параметров (R, L, C) и развитыми методами декомпозиции и расчета. В этом отношении замечательны работы Г. Крона, прямо постулировавшего инвариант мощности в качестве меры при расчетах.
Представляется, однако, что понятие (средней за период) мощности может быть использовано только в периодических процессах и, в общем случае, необходимо учитывать полную энергию. В цепи с релаксатором, например, мгновенная мощность колеблется от нуля до максимума.
Мера (в частном случае, Энергия) полного мультифрактала складывается из суммы мер его частей и, по сути, является единственно возможной единицей для взаимных расчетов при взаимодействие систем (транспорт и обмен).
Например, при транспорте сообщений, такой мерой является шенноновская энтропия (фрактальная плотность текста).
Понятие фрактала для наших целей нуждается в уточнении. Далее под фракталом понимается регулярное (возможно, бесконечное) разбиение системы на подсистемы, сохраняющее меру.
Математически, это выглядит как система итерируемых функций, технически - как система с единичной обратной связью: выход поступает на вход. Собственная функция такой системы будет, в нашей терминологии, фракталом.
Входной сигнал системы с обратной связью можно рассматривать как сумму внешнего сигнала и передаваемой обратно на вход части выходного сигнала. Тогда, глубину обратной связи можно оценить как долю в полной энергии входного сигнала системы энергии выходного сигнала (энергия всегда аддитивна). Если внешний сигнал отсутствует вовсе, то входной сигнал полностью определяется выходным и система имеет единичную (100%) обратную связь.
В энергетическом аспекте неважно, какую именно часть замкнутой петли рассматривать как "систему" и какую как "связь", является ли эта связь "положительной" или "отрицательной" в том смысле, как это принято в кибернетике, и где именно происходит потеря или, наоборот, накачка энергии, если система неконсервативна. Это проблема "первородства яйца и курицы". Цикл замкнут и все его фазы равноценны.
"Реплика" и "репликатор", вероятно, было бы более точным и правильным названием, но далее будет использован термин "фрактал" - и как более "маркетинговый", и как исторически первый, и как память о той бесконечной череде дроблений, которой поражают большинство фрактальных конструкций.
Один очень частный случай подвода энергии к системе - обратная связь. Консервативная система - это единичная обратная связь.
Способ существования (движения) систем с единичной обратной связью - это самоподобный (генераторный) цикл, подобный трудам Сизифа (технически - релаксатору) или циклу "яйцо-курица", когда каждая новая итерация системы имеет своим входом только результат предыдущей.
Определим фрактал как целое, равное сумме всех своих частей. Иными словами, части системы обладают теми же свойствами, что и система в целом, они аддитивны, определена операция композиции этих частей и может быть вычислена некоторая характеристика (мера), такая, что сумма характеристик частей равна характеристике полной системы.
Например, если 0.5 л жидкости разлить по трем стаканам, то суммарный объем налитого будет равен исходному.
Системы, равные в смысле заданной меры будем считать эквивалентными. Разбиение полной системы на самоподобные независимые компоненты, суммарно равные целому в смысле заданной метрики, будем называть фрактальным разложением.
Например, взвешивание товара на рычажных весах задает его фрактальное разложение на гири и разновесы в смысле массы товара. Фурье-преобразование сигнала задает его фрактальное разложение на гармоники в смысле энергии сигнала.
Более точно, мерой системы будет тот предел (неподвижная точка), к которому стремится сумма мер частей при все увеличивающемся их количестве и все уменьшающемся размере (метод исчерпывания Архимеда).
Техническими примерами подобных устройств могут служить многовитковая катушка индуктивности или шаровая мельница. При этом рекурсия обеспечивает исключительную (кратную) эффективность. "Выживание" фрактала как собственной функции системы можно наблюдать в автоматной игре "Жизнь" Конвея или в "диком виде" - естественный отбор.
Заметим, что от определенного таким образом фрактала, не требуется ни дробная размерность, ни точное самоподобие. Важен только (рекурсивный) алгоритм конструирования.
При этом анализ Системы сводится к эквивалентированию Системы (Мульти)Фракталом и последовательному анализу подсистем.
Значимой характеристикой систем является соотношение параметров (p,d). Отношение этих двух параметров будем называть импедансом Z = p / d
Взаимодействующие системы будем назвать согласованными, если совпадают (согласованы) их импедансы (концентрация p,d). При рассогласовании систем возникает дополнительный поток, направленный на уравновешивание концентрации (отраженный/обратный поток).
Два примера.
Не считая всевозможных генераторных схем, два важных примера итерационных алгоритмов - это хэш-функции и блочные шифры.
Опишем фрактал F, как порождаемый генератором g, за число итераций n (в пределе, бесконечное)
F(g,n), n = 1..N
и мультфрактал M, как порождаемый набором генераторов g1,g2... , за число итераций n (в пределе, бесконечное)
M(g1,g2, ... n), n = 1..N
Итерируемая хэш-функция (такая, как MD5 или SHA256) является, по сути, конструктором фрактала с единственным генератором - входным текстом.
Блочный шифр (типа сети Фейстеля), наоборот, конструирует мультифрактал от двух генераторов: входного текста и секретного ключа.
И если хэш-функция - это "мельница", перемалывающая входной текст в "фарш", то блочный шифр перемалывает его в "фарш со специями".
Рассмотрим произвольную распределительную систему, такую как домовой водопровод или систему ранжирования Google.
В общем случае, для двух ортогональных параметров, условие равновесия распадается на два независимых условия (Законы Кирхгофа) для двух сопряженных (продольного и поперечного) параметров Файрстоуна (переменных состояния):
1. Сумма потоков в произвольном узле равна нулю.
2. Сумма напоров по произвольному замкнутому контуру равна нулю.
Интересно, что К. Шеннон в своем выводе формулы энтропии обошелся одним только Первым Законом (неразрывность потока вероятности) для чисто узловой цепи (дерево выбора).
Закон Ома. Термодинамическая тройка
Как обобщение Абстрактного Трансформатора, получаем известный из теории электрических цепей идеальный четырехполюсник, введенный в термодинамику под названием Уравнения Онзагера.
По аналогии с теорией четырехполюсников, что должно быть опытами Холостого Хода и Короткого Замыкания для транспорта сообщения?
m-битное сообщение, полученное в результате применения к n-битному тексту таблиц конверсии, может быть представлено в условной "матричной" форме как
u = Z * i
где
i - n-битное исходное сообщение,
u - m-битное результирующее,
Z - m * n "матрица" конверсии
Это уравнение является Законом Ома для информационной цепи, а "матрица" Z - ее информационным импедансом.
Заимствуя термины из электротехники, можно сказать, что информационный поток i, проходя через трансформатор T с импедансом Z, создает на нем напряжение u.
Трансформатор Z, для данного случая, абстрагируется моделью двухполюсника - элемента, имеющего ровно два узла (полюса).
Во многих, практически важных случаях (канал без потерь), "матрица" Z обратима - (сообщение может быть распаковано, расшифровано, преобразовано в исходную кодировку итд) и, таким образом, математически, задача восстановления исходного сообщения сводится к умножению результирующего на "обратную матрицу".
В терминах информационных потоков, Z можно было бы рассматривать как ребро ориентированного графа, в один узел которого втекает исходный поток, а из другого вытекает трансформированный, но "электрическая" модель лучше отражает природу происходящего преобразования.
Исключительно важно (но не учитывается "матричной" моделью), что координаты i и u контрвариантны. i - очевидная 'продольная' величина (поток), а u - 'поперечная' (напряжение).
Следуя Г. Крону, различные кодировки рассматриваются, как проекции того же самого сообщения в различные координатные системы (равномерные коды, неравномерные коды итп).
Причем, обратимость преобразования гарантирует, что эта "матрица" всегда невырождена.
Например, кодирование Хаффмана - это просто "косое" отображение равномерных кодов (фиксированной ширины) на неравномерные (переменной ширины).
А LZ-сжатие - это (зеркально) "косое" отображение неравномерных (переменной ширины) кодов (строк) на равномерные (фиксированной ширины) коды (номера этих строк в словаре).
Очевидно, что само сообщение при этом инвариантно. Математически, это должно быть произведением двух контрвариантных компонент - воздействия и отклика.
Подчеркнем еще раз, что "инвариантность мощности" (по Г. Крону) - это условие преобразования, а не его следствие и не нуждается в "доказательствах" (как это пытались делать некоторые его продолжатели, конструируя то "двойственные цепи", то "относительную математику").
Интересный анализ идей Г. Крона можно найти у М. Грамма ("Дедуктивная теоретическая электротехника"). Также А. Левич ("Энтропия как мера структурированности сложных систем") предлагает близкое по взглядам на инвариантность энтропии изложение.
Рычаг Архимеда - неразрывность потока вероятности
И еще один момент. Шеннон рассматривает некоторое дерево (назовем его деревом Архимеда - в сущности, это система рычагов), потом немного другое дерево и заявляет, что они эквивалентны (третья аксиома). Шеннон выписывает формулы для обоих и приравнивает их. Все ОК.
В попавшихся мне статьях и книгах по Теории Информации не встретилось ни рисунка этого дерева, ни связанной с ним формулы и, вероятно, их авторам она показалось банальной и не требующий ни внимания, ни комментария. У Шеннона оно тоже появляется мельком, невнятно, просто как числовой пример.
Шеннон уравнивает там два разных дерева (фактически, суммы моментов для рычагов Архимеда), а это две системы с различным числом измерений и матрица такого преобразования сингулярна (неквадратна) и - в математическом смысле - не имеет обратной (нет обратного преобразования).
Первым, кто ввел такие преобразования был Г. Крон (Тензорный анализ сетей), который постулировал равенство моментов (в терминологии электрических сетей - мощности). Споры об этом постулате не утихают до сих пор :-)
Думаю, К. Шеннон мог знать о работах Г. Крона, опубликованных почти двадцатью годами ранее (будучи не только математиком, но и (по второму диплому) инженером-электриком, но вряд ли думал о них (и втором постулате Крона) формулируя свою третью аксиому. Равновесие системы кажется настолько очевидным, что Шеннон просто ограничивается парой рисунков в разных статьях (по изданию К. Шеннон "Работы по Теории Информации и Кибернетике", М. 1963)
Взаимодействие систем
Рассмотрим взаимодействие двух абстрактных систем. Положим одну из них абсолютно жесткой (недеформируемой) и вторую - абсолютно пластичной.
На практике, это довольно частая ситуация, когда можно пренебречь "отдачей" и рассматривать деформацию только одной системы.
Используя "асимметричную", но устоявшуюся терминологию, деформируемую систему будем называть "сигналом", а деформирующую - "фильтром". Для различения состояний до и после деформации, будем говорить, соответственно, о "входном" и "выходном" сигналах.
При этом возможны четыре сценария взаимодействия:
1. Вариативный сигнал и инвариантный фильтр
Все возможные виды входных сигналов проходят через тот же самый фильтр. По сути, это классическая селекция по заданному критерию.
2. Инвариантный сигнал и вариативный фильтр.
Фактически, это вариационная задача на "Принцип наименьшего действия".
3. Инвариантный сигнал и инвариантный фильтр.
Этот случай выглядит тривиальным.
4. Вариативный сигнал и вариативный фильтр.
Результат довольно случаен - примерно, как крутить ручку настройки радиоприемника.
Число сценариев легко удвоить, добавив возможность рекурсивного взаимодействия - выход фильтра снова подается на его вход. Рекурсия может быть организована либо как каскадное соединение однотипных фильтров, либо замыканием петли обратной связи.
Рекурсивные процессы, такие как биологическая эволюция или автоматические производственные линии, обеспечивают все природное и техногенное разнообразие окружающего мира, а периодические кризисы (и не только финансовые), доказывают, что мы еще очень далеки от их понимания. Хорошо разработанная теория существует только для линейных систем.
Синхронизация
Две системы находятся в контакте, если могут обмениваться веществом/энергией (образуют термодинамическую пару).
В электротехнике, например, Индуктивность может запасать Кинетическую энергию (движущегося тока), а Конденсатор - Потенциальную (неподвижного заряда). В механике Масса может запасать Кинетическую энергию ("живая сила"), НО не Потенциальную (в отличие от того, чему учат в школе) - Потенциальную энергию запасает второй вид накопителя - Поле.
В силу этого, я считаю (вразрез с теорией колебаний) число степеней свободы системы по числу независимых накопителей (или, что то же самое, по числу различных видов запасенной энергии). Таким образом, Колебательный контур (гармонический осциллятор) имеет ДВЕ степени свободы (два накопителя, два вида энергии), а не одну, как это пишут во всех учебниках. (Одна степень свободы гасится связью, но ее существование следует учитывать).
Колебательный процесс, в моем представлении - это биения Энергии по степеням свободы (обмен Энергией между накопителями). Два (или более) вида накопителей (два фазовых состояния, две химических среды итп) необходимое условие периодического процесса.
Однако, накопитель может быть разряжен и на активную нагрузку - то есть, энергия необратимо переходит в тепло и не может быть возвращена назад в накопитель (система с одним накопителем). В этом случае, процесс апериодический, но, тем не менее, с точки зрения накопителя, это то же самое "колебание", только "полупериодное", так как фаза возврата никогда не наступает.
Обобщим эту ситуацию на синхронизацию апериодических систем.
Причем, математически, оба рода колебаний описываются тем же самым уравнением, только аргумент из действительного превращается в мнимый (или комплексный - для случая затухающих колебаний).
Тогда, вся "Теория Информации" - это просто раздел теории "синхронизации [апериодических] систем".
Обычно, инженеров интересуют, в первую очередь, устойчивые решения (замкнутые орбиты), но нет ни одной причины ограничивать рассмотрение только ими - физика процесса та же самая.
Другое обобщение - это расширение понятия синхронизации на задачи управления (слежения). Скажем, система "хищник - жертва": Лиса гонится за зайцем. Лиса, очевидно, "синхронизируется" с положением зайца и стремится совместить траектории, но заяц, точно также, "синхронизируется" с лисой, стараясь увеличить разрыв.
"Классическая синхронизация" рассматривает только сближение орбит и только в диссипативных средах. Кибернетика (используя отличную терминологию) рассматривает только активные среды (с усилителями), но восходящая еще к Шеннону и Винеру традиция использует выделенную (асимметричную) систему отсчета: "передатчик и премник", "объект и регулятор" итд.
Даже релятивисткая физика грешит асимметрией: "система и наблюдатель".
Если же систематически придерживаться принципа полного равноправия систем, взаимодействующих в процессах обмена (поменяв наблюдателя на партнера), и изменив понятия "приемник" и "регулятор" на, скажем, реагент и искать инварианты трансформации (Законы сохранения), то все описывается в одних и тех же геометрических понятиях - сохранения площади (энергии).
Скажем, лист бумаги можно разрезать на куски и складывать фигуры пентамино. Площадь любой фигуры будет равна площади исходного листка бумаги.
Два вещества могут вступить в химическую реакцию и обменяться элементами. Суммарная масса новых веществ будет совпадать с массой исходных.
Два тела разной температуры, будучи приведенными в соприкосновение приходят в состояние температурного равновесия, при этом полная энергия системы не изменяется.
Рычаг Архимеда (или Электрический Трансформатор) демонстрируют сохранение моментов сил (или мощностей в обмотках) итд.
Введя обобщенные координаты и переходя к фазовым пространствам можно выписать одни и те же формулы и для механического маятника, и для электрического колебательного контура, и для химической реакции (не обязательно, периодической).
Достаточно выполнения единственного условия (Постулат Обмена):
Системы взаимодействуют - т.е. изменение состояния любой из них необходимо влечет изменение другой.
Если обмен происходит с потерями энергии, это классическая схема синхронизации (расширенная и на апериодические процессы).
Если процесс идет с подводом энергии внешнего источника (к одной или обеим взаимодействующим системам), так что энергетический обмен между самими взаимодействующими системами виртуально равен нулю, то это классическая схема кибернетики (обмен информацией).
Для классической теории синхронизации второй случай равносилен отсутствию связи, так как нет прямого энергетического обмена, однако в Теории Управления это называется "виртуальная связь", поскольку уравнивание потенциалов достигается работой внешних сил.
Пример.
Пусть, имеется садовая бочка с водой, к которой присоединен открытый на другом конце шланг.
В "классической" теории, потенциалы будут выровнены, когда вся вода вытечет.
В "кибернетической" теории, потенциалы будут выровнены, когда открытый конец шланга будет поднят на уровень бочки.
Во втором случае не было никакого обмена - считаем, что вода не успела вытечь - кроме информационного - на какую высоту поднять шланг.
В данном случае у нас одномерное фазовое пространство с единственной координатой - высота и дельта информации (количество информации по Шеннону) - это разность высот.
Важно, что есть еще и скрытый параметр (разделяемая модель). Можно встретить термины тезаурус, словарь, разделяемый секрет итп) - это начальная разность высот бочки и шланга.
В момент начала отсчета каждый из участников знает собственные координаты в фазовом пространстве (собственную высоту) и дельту координат (разность высот).
Может показаться, что знание собственной координаты необязательно (и Теория Информации оперирует только дельтой, принципиально исключая из рассмотрения начало координат), но это неверно.
Без общей начальной координаты невозможно замкнуть контур действия сил и рассмотрение теряет смысл (перенесем, например, бочку в невесомость).
Применение законов сохранения требует выполнения двух очевидных условий (Законы Кирхгофа):
1. Система изолирована (нет неучтенных утечек или подводок энергии).
2. Система находится в равновесии (сумма сил по любому замкнутому контуру равна нулю).
В собственных (ортогональных) координатах закон сохранения Энергии распадается на два ортогональных (двойственных) закона Кирхгофа (отдельные балансы по Инь и Янь).
По сути, всю физику, можно переписать в терминах Инь, Янь и Хрень (потери) - где двойственные Инь и Янь отвечают консервативной системе, а их произведение - инварианту Энергии.
К несчастью, даже простейший текст - уже система со многими степенями свободы, а простейшее сжатие - нелинейное преобразование. Возможна ли тут какая-то аналитическая (не статистическая!) модель - используя два закона Кирхгофа для расчета произвольной системы, до сих пор неясно.
Кроме того, информация (ПО ОПРЕДЕЛЕНИЮ) измеряется не между двумя точками фазового пространства, а между Нулем фазового пространства и заданной координатой.
И Количество Информации по Шеннону (ПО ОПРЕДЕЛЕНИЮ) - это не разница между двумя координатами фазового пространства, а разница между двумя отсчетами от Нуля фазового пространства до заданных координат.
Например, слова ТОК, КОТ и ОТК будут находиться на одном и том же расстоянии от Начала Координат фазового пространства, поскольку (по Шеннону) они имеют одинаковую энтропию и, следовательно, шенноновское расстояние между ними в точности равно нулю.
К слову, каббалистами в гематрии (тысячу лет назад) использовался в точности тот же подход - равенство суммы цифр слова или фразы означало и смысловую эквивалентность.
Возможно, это не совсем то, что хотелось бы, но пока мы используем логарифм как меру расстояния, у нас нет другого выбора.
Общая ошибка теорий о потоках и проч., в том, что они используют Графы, а не Сети.
Абстрактные дельты в них перетаскиваются между не связанными между собой системами (не имеющими общего нуля). Информация объявляется негэнтропией, например, и проч. Это делается очевидным, как только нарисована схема замещения (с дифференциальным усилителем) и задан Главный Первый вопрос - Где общая точка (начало отсчета).
Резонанс
Математический факт: произведение X * (1 - X), X - положительно, имеет максимум при равных сомножителях.
В связанных системах сумма энергий постоянна, но мощность (скорость потока энергии) есть произведение двух параметров - и обязана иметь экстремум при согласовании систем. В силу двойственности (p,d) этих экстремумов два (возможно, совпадающих). В электрических цепях они имеют названия резонанса токов и резонанса напряжений.
Примем экстремальное значение (максимум) X * (1 - X) за 1 (100%). Неравенство (X <> X') назовем невязкой (рассогласованием). Тогда чем больше рассогласование, тем дальше мощность (X * X') от максимума, тем ниже КПД системы (безотносительно ее природы).
Введем коэффициент асимметрии A = 1 при резонансе, и всегда меньший при рассогласовании.
Для дискретных систем, это биномиальные коэффициенты (треугольник Паскаля), и с увеличением числа точек ( > 100 ) в силу формулы Стирлинга будет совпадать с энтропией Шеннона (комбинаторная энтропия).
Приложение к транспорту сообщений.
Рассматриваем транспорт сообщений как общую задачу упругой (обратимой) деформации. Кодер/Декодер (Компрессор/Декомпрессор) отвечают за стадии сжатия/растяжения. Первичная и вторичная системы кодов образуют две системы координат, из которых наблюдается одно и то же (инвариантное) сообщение.
Важно, что, в общем случае, преобразование нелинейно ("неквадратно"), но всегда существует и обратимо (биекция), даже если его нельзя выразить аналитически.
Мерой (инвариантом) преобразования является шенноновская энтропия сообщения.
Рассматривая Текст как аналог Идеального газа, а передачу сообщения, как аналог термодинамического цикла тепловой машины Карно, находим, что "повышение давления" текста ведет к уменьшению его объема (сокращению размера сообщения) и росту энтропии.
При этом размер сообщения является аналогом термодинамической (абсолютной) температуры.
Сжатие без потерь - это упругая деформация фрактала, повышающая коэффициент заполнения (энтропию).
Две классические схемы компрессии данных - Хаффмана и Зива-Лемпеля, очевидно, зеркальны. В силу двойственности, поскольку для метода Хаффмана существует алгоритм построения оптимальных кодов (предельная теорема), то такой же метод (точнее, двойственный ему), должен существовать и для метода Зива-Лемпеля.
В координатах "размер сообщения - удельная энтропия" компрессии текста отвечает гиперболический поворот (Лоренц-сжатие).
Пионером такого подхода является Г. Крон, который (впервые) использовал аппарат тензорного исчисления при описании дискретных объектов (электрических цепей).
Электрическая цепь рассматривалась им как единый объект (тензор), а ее состояния - как проекции этого тензора в различные системы координат.
Соответственно, преобразование состояний сети рассматривались как преобразования от одной системы координат к другой.
Так, например, различные состояния цепи с переключателями рассматривались им как различные проекции той же самой цепи.
Очевидно, что запас энергии (инвариант) в такой системе не должен был меняться при переходе от одной системы координат к другой.
Избыточность - альтернативный (двойственный) подход.
Введем понятие комплексной информации, рассматривая две (классические) компоненты сообщения - энтропию и избыточность, как ортогональные направления на комплексной плоскости. Деформация (сжатие/растяжение) сообщения будут тогда соответствовать тригонометрическому повороту.
При этом "уменьшение избыточности" сообщения будет аналогично "улучшению" cosФ в электричесских цепях.
Тогда "избыточность" неожиданно обретает смысл "реактивной мощности".
Термодинамика текста
Введем определения:
Алфавит - конечное множество символов, на котором задано отношение порядка. Иными словами, для любой пары символов можно указать, какой из них "левее".
Сообщение - конечная последовательность, составленная из символов алфавита.
Код символа - битовая строка (0,1), поставленная в соответствие данному символу.
Кодирование - запись сообщения в виде кодов. Независимо от природы символов, кодирование позволяет унифицировано записать сообщение как последовательность бит.
Будем делить коды на равномерные, равного битового размера для всех символов и неравномерные, битовые размеры которых различаются.
Сообщение исчерпывающе характеризуется числом и порядком символов.
Минимальное сообщение, состоящее из всех символов алфавита будем называть полноранговым. Для алфавита мощности N, очевидно, существует N! полноранговых сообщений.
В зависимости от выбранного способа кодирования, двоичное представление сообщения может быть различным. Таким образом, эти представления можно рассматривать как проекции того же самого сообщения в различные системы кодов.
С другой стороны, в заданной системе кодов, различные сообщения можно рассматривать как деформации некоторого исходного сообщения. Например, все N! полноранговых сообщений могут быть получены пермутацией исходного алфавитно-упорядоченного сообщения.
Деформацию сообщения можно рассматривать как получение информации о связанном с ним процессе. Транспорт информации сводится, таким образом, к деформации сообщений.
При этом возникает вопрос, что следует принять за исходное (недеформированное) сообщение.
На самом деле, этот вопрос распадается на два:
- что принять за недеформированное состояние сообщения в его инвариантной (символической) записи
и
- что принять за недеформированное двоичное представление
Выглядит логичным использовать в обоих случаях наиболее простые представления. Для символьной записи, это алфавитная последовательность, для двоичной - равномерный код.
В силу неперемещаемости информации, ее клонирование требует работы третьих сил.
Таким образом, полный цикл транспорта информации можно записать в виде трех этапов (физическое перемещение носителя по каналу связи интереса не представляет):
- Деформация исходного сообщения на стороне источника
- Клонирование деформированного сообщения на стороне приемника
- Уничтожение деформации клонированного сообщения
Этот цикл не является замкнутым физически: уничтожение деформации клонированного сообщения не меняет деформации исходного, но замкнут виртуально: конечное недеформированное сообщение эквивалентно недеформированному исходному.
Сравнивая цикл транспорта с циклом Карно, находим, что работа по деформации в источнике не возвращается в приемнике. Более того, уничтожение информации (считая процесс симметричным) требует от приемника таких же затрат, как и в источнике. Полусумму затрат на обоих концах, будем называть Энергией деформации.
Аналогией деформации сообщения может служить двухкомпонентная смесь - несжимаемая жидкость и сжимаемый газ в герметичной емкости. Отношение объема жидкости к полному объему сосуда - это энтропия. При сжатии сосуда - увеличивается. При растягивании - уменьшается. При переливании в другой такой же - остается той же самой. Ужать меньше, чем объем жидкости невозможно - энтропийный предел.
Развивая аналогию с циклом Карно, следует указать два сопряженных параметра, являющихся координатами состояния системы (сообщения), произведение которых будет инвариантом деформации.
Для линейных систем инвариантом является билинейная форма от продольного и поперечного (в терминологии Ф. Файрстоуна) параметров (мощность). Желательно отыскать для сообщений столь же наглядное графическое представление, как это сделано, например, для линейных электрических цепей, где продольный и поперечный параметры имеют ясный физический смысл токов и напряжений.
Пространство состояний сообщений не является линейной функцией их размера, но может быть линеаризовано введением полулогарифмических координат. (Логарифм - обратная к экспоненте функция, а размер пространства состояний связан с размером сообщения экспоненциальной зависимостью).
Таким образом, подходящей "схемой" сообщения может быть дерево выбора, листьями которого служат символы сообщения, а ветвям приписаны вероятности перехода в данное состояние. При равновероятных выборах, высота дерева в точности равна логарифму размера пространства состояний.
Точно также, как в электрической схеме можно менять продольные и поперечные параметры (токи и напряжения) и саму конфигурацию цепи, на дереве выбора можно менять продольные и поперечные параметры (веса узлов и коэффициенты передачи ветвей) и саму конфигурацию дерева.
В полулогарифмических координатах (p, log p), аналогично линейным системам, инвариантом деформации является билинейная форма: сумма произведений продольного и поперечного параметров (парциальных энтропий).
Физически, энергия - эквивалент работы, то есть некоторого перемещения на некоторое расстояние или потенциальная возможность такое перемещение произвести.
В случае электрической цепи, всегда можно выяснить тепловой эквивалент - то есть, запасенную энергию.
Иными словами, Знергия невозможна без накопителя и, более того, всякий вид накопителя способен запасать только свой специфический вид энергии.
Энтропийный расчет
Энтропия базируется на том, что мы знаем (хотя бы из опыта) коэффициенты передач отдельных звеньев системы - ничего не зная об их внутреннем устройстве. Мы не можем посчитать их по законам Кирхгофа, но можем перемножить коэффициенты и сказать, какой будет выход в конце цепочки.
Как пример, можно ничего не знать о работе банков, но если известно их число и комиссия, ничего не стоит посчитать, сколько денег дойдет до получателя - и это типично энтропийный расчет: достаточно знать только, "как делится пирог между едоками".
Нешенноновская информация
Введем (за неимением лучшей) следующую терминологию, поделив абстрактные примитивные информационные элементы на два типа:
1. Аккумуляторы (неизменяемые) - например, эталоны длины, веса итп. При каждом измерении (запросе информации), мы получаем тот же самый ответ.
2. Генераторы (непредсказуемые) - например, подбрасываемая монетка. Хотя возможны всего два варианта (аверс/реверс), оба они равновероятны.
В электрической терминологии им могут соответствовать Генератор напряжения и Источник тока. Шум в канале связи - это диссипация (резистанс), разрушающая информацию.
По Шеннону, Аккумулятор не производит никакой информации, а Генератор производит максимум информации.
Интересны Активные среды - производящие Информацию без какого-либо входного воздействия. Сейчас то, что находится "до входных зажимов" не рассматривается вовсе.
Например, Игры преследования.
Заяц бежит от Лисы не только пока видит ее, но и известное время после - в отсутствие всякого информационного воздействия.
Иными словами, если классическая (по Шеннону) информация - это отклик дифференцирующей цепи (реагирует только на изменение сигнала), то необходимо взять в расчет дуальный случай интегрирующей цепи - реагирующей на неизменяющийся сигнал.
Фактически, информация по Шеннону - это сигнал рассогласования в следящей системе (с отрицательной обратной связью).
Система прогнозирует, каково должно быть ее состояние, определяет невязку и корректирует его. Нет невязки - нет информации. Чем дальше от ожидаемого состояния - тем больше информации (тем сильнее должно быть корректирующее воздействие). Поскольку элементарное состояние возможно только между 0 и 1, то наиболее неопределенная ситуация - это 0.5 - два равновероятных выбора.
Но, поведение систем не ограничено только петлей отрицательной обратной связи. Оно может быть и безразличным (обратной связи нет вообще) и обратная связь может быть положительной (генераторные схемы).
Последняя ситуация нечаста в инженерной практике - система идет "вразнос", сразу возникают задачи ограничения этого режима, стабилизации итд, но она более общая, чем это кажется. Например, в задачах преследования, жертва выбирает именно "генераторное" поведение, стремясь к максимальному отрыву от погони. Обратная связь меняет знак и, с точки зрения управления, требуется уже не дифференциальная характеристика - насколько далеко мы отклонились от ожидаемой траектории движения (оценка хищника), а интегральная характеристика - насколько далеко удалось уйти от преследования (оценка жертвы).
Иными словами, если хищник получает информацию "дифференцируя" траекторию движения жертвы, то жертва, на мой взгляд, должна "интегрировать" траекторию движения хищника, так что даже если расстояние между ними остается неизменным (нет сигнала рассогласования), жертва все равно стремится увеличить отрыв (режим генерации).
Таким образом, если энтропия по Шеннону - это "кривая с максимумом" - на интервале [0,1] в крайних точках она обращается в нуль и имеет максимум в центре, то дуальная к ней (генераторная), кажется, должна обращаться в бесконечность на краях интервала (возможно, с разным знаком) и иметь 0 в его центре.
Электрическая аналогия.
Если к цепи приложен постоянный ток, то он проходит через резисторы и не проходит через конденсаторы (разрыв цепи). Катушки индуктивности выглядят для него как просто не имеющие сопротивления проводники.
Но если ток меняется во времени, то картина усложняется: конденсаторы начинают "терять" сопротивление и пропускать ток, а катушки индуктивности, наоборот, приобретают (индуктивное) сопротивление.
Если ток периодический, то это можно выразить как линейную функцию частоты и емкостное и индуктивное сопротивление: емкостное сопротивление падает с ростом частоты, а индуктивное - растет. Сопротивление же резисторов от частоты никак не зависит.
Возвращаясь к ТИ, первая предложенная Хартли в 1929 году мера количества информации была "резистивной" - она никак не зависела от динамики системы и отражала только ее статическую структуру (число состояний).
Шеннон предложил (или обобщил) меру Хартли на случай динамических систем - т.е. таких, время пребывания которых в каждом из состояний различно (оно описывается как вероятность данного состояния).
При этом состояния с меньшей вероятностью считаются более информативными (более неожиданными), а с большей вероятностью - менее информативными (более ожидаемыми), предопределенные (неизменные) состояния - вообще не несущими информации (разрыв цепи).
Иными словами, за количество информации принимается "ошибка прогноза" - чем больше ошибка (сигнал обратной связи), тем больше количество информации. Если ошибки нет (прогноз точен), то нет и информации.
Сравнивая с электрической цепью, легко заметить, что определенная таким образом информация описывает "цепь с конденсатором": нет изменений - нет тока (информации), чем выше частота (неожиданность) тем больше ток в цепи (больше количество информации).
Недостатки такого определения известны, один из главных (как и в цепи с конденсатором) - отсутствует постоянная составляющая - нет нуля информации, передаются только пульсации (изменения), мера информации лишена смысла вне контекста данной цепи (нет общей точки - общего нуля).
Но интересно другое - опираясь на электрическую аналогию, можно определить информацию прямо противоположным образом - моделируя поведение цепи не с конденсатором, а с катушкой индуктивности.
Иными словами, если Шеннон ввел "дифференцирующую" информацию (информацию изменений), то аналогично можно ввести "интегрирующую" информацию (информацию накоплений).
Кажется, для этого достаточно только перевернуть множитель в формуле Шеннона - чем выше вероятность - тем больше информативность (в точности, как в электричской цепи: индуктивное сопротивление - wL, емкостное - 1/wC).
Итого - три модели информации: резистивная (Хартли), емкостная (Шеннон) и индуктивная.
А теперь самое интересное: в точности, как в электрической цепи, можно построить комплексную (трехкомпонентную) Информацию. Одна (действительная компонента) - это "резистивная" информация Хартли и две дуальные ("емкостная" и "индуктивная") образуют мнимую компоненту.
На сегодняшний день, практически все методы расчетов сконцентрированы на нескольких типах источников с "удобными" вероятностными характеристиками.
В перспективе же, аккуратно введя комплексную информацию, можно рассчитывать практически любые источники сигналов и меняющиеся во времени каналы передачи информации.
Наконец, очевидное следствие комплексности информации - это колебания и автоколебания, стоячие волны и явление Информационного Резонанса: неизбежно существует такое распределение вероятностей состояний, при котором сколь угодно малое изменение на входе информационной цепи порождает сколь угодно большой отклик на выходе (ограниченный только ресурсами и прочностью системы).
Так что еще немного, и "биржевую панику" и "твиттерные революции" будут описывать точными математическими формулами.
И еще. Рассматриваем взаимодействие.
Есть ровно 2 способа выравнивания разности потенциалов.
Представим сосуд с водой, к которому приделан снизу шланг. Корпус сосуда - это изоляция (контур) и шланг - это проводник (мост).
1. Позволить самопроизвольное выравнивание (дать воде вытечь). Это обычный способ использования энергии движения (водяная мельница, например)
2. Организовать подпор (поднять свободный конец шланга выше уровня жидкости). Это обычный способ организации противодействия (контрфорсы в архитектуре, например или гонка вооружений итп)
Результат, казалось бы один - Потенциалы выровнены, но есть один нюанс.
В (1) есть перенос Заряда через контрольную поверхность, приводящий к уравниванию Потенциала.
В (2) НЕТ переноса, но есть работа внешних сил, по уравниванию Потенциала (подперли стенку, подняли шланг, вооружили армию итд.)
Случай (2) в точности соответствует ситуации с Информацией: Заряд никогда не перемещается (Информация НЕ убывает), а выравнивание Потенциала достигается работой внешних сил. (Оригинал НЕ перемещается, но за счет работы внешних сил создается точная копия - выравнивается (информационный) потенциал).
Теперь от тавтологии типа "информация - это сведения" итп. легко перейти к понятию синхронизации двух систем (выравнивание разности потенциалов) не за счет переноса (которого нет и быть не может - информация нематериальна, это фиктивная вещь, вроде центра тяжести обруча), а за счет уравнивания потенциала работой стороннего источника (скажем, ксерокса).
В этой модели полностью снимается самый "скользкий" вопрос ТИ - почему в ней нет "Закона сохранения информации".
Релятивизм
Аналогично тому, как существует предельная скорость (света), существует предельная Энтропия ("Энтропийный предел"), значение которой удобно принять за единицу - это энтропия Белого Шума.
Очевидно, что при сложении энтропий необходимо использовать формулы СТО.
Так, например, сумма двух единичных энтропий также будет равна единице.
Эти понятия удобно рассматривать в терминах "концентрации", тогда необходимость и существование предела становятся очевидными.
В частности, шенноновская энтропия - это "концентрация" текста.
Относительные и абсолютные системы координат
В реальности, система координат, образуемая заданным набором объектов, всегда симметрична и относительна: она определяется набором качеств, присущим объектам и (попарной) разностью их количеств.
Тем не менее, иногда выглядит удобным и оправданным переход к абсолютной системе координат путем введения фиктивного "нулевого" объекта или фиксации в качестве "нулевого" одного из существующих объектов. Обычно, это выгодно, когда полученная таким образом система, обладает центральной симметрией относительно нового нуля отсчета.
Необходимо отчетливо понимать, что "нуль" отсчета - всегда фиктивное понятие, математическая абстракция (даже если он совпадает с одним из реальных объектов системы), вводимая только для удобства и упрощения записи.
Как замечательно выразился по этому поводу академик В. Миткевич: "Попробуйте подвесить обруч за его центр тяжести".