Один мудрец взял пустой кувшин и наполнил его доверху небольшими камнями. Собрал своих учеников и задал им первый вопрос: "Скажите, уважаемые, полон ли мой кувшин" На что те ответили: "Да, полон". Тогда мудрец взял полную банку с горохом и высыпал содержимое в кувшин с камнями. Горох занял свободное место между камнями. Задал мудрец второй вопрос: "Полон ли теперь мой кувшин" Ученики вновь подтвердили, что полон. Тут мудрец взял коробку с песком и его тоже высыпал в кувшин. Песок просочился сквозь горох и камни и занял все свободное место и все закрыл. Еще раз спросил мудрец своих учеников, полон ли кувшин и снова услышал утвердительный ответ. Тогда достал мудрый человек кружку, полную воды и вылил ее в кувшин до последней капли.
Физический смысл понятия "энтропия" часто вызывает затруднение. Вероятно, наилучшей аналогией будет "плотность" или, может быть, "структурная плотность". Предельно плотная упаковка, "100% чистого вещества" отвечает энтропийному пределу: невозможно очистить продукт от примесей лучше, и чем ниже содержание искомого продукта в смеси, тем ближе к нулю его энтропия.
Нелепо приписывать оценке Хартли-Шеннона какую-либо связь с "информативностью" сообщения - в обычном, обыденном смысле этого слова. Исторически сложившееся название "количество информации" следует признать скорее маркетинговым слоганом, нежели сколько-нибудь реальной характеристикой.
Иронично, но вычисленное по формулам "количество информации", к информации ни малейшего отношения не имеет.
Если рассмотреть, например, процедуру взвешивания на рычажных весах, то килограмм сахарного песка может быть уравновешен килограммом золотого песка. Ни по каким своим характеристикам два этих товара не равноценны друг другу: золотой песок бессмысленно сыпать в чай, а сахарный - нести к ювелиру.
Но если требуется переслать и тот и другой посылкой с оплатой по весу, то в этом, и только в этом смысле они оказываются эквивалентны.
Оценки Хартли-Шеннона - это оценки платы за транспортировку сообщения, безотносительно к тому какая в нем содержится информация и содержится ли вообще: транспортировка дезинформации или шума, например, обойдется в ту же самую сумму.
Энтропия сообщения - это технический показатель его "насыпной плотности", "чистого веса", "нетто", позволяющий рассчитать предельное, минимально необходимое для транспортировки количество тары заданной вместимости, и не учитывающий ни природу товара, ни его ценность для получателя.
Очевидно, для расчета потребной тары (пропускной способности канала связи) существенна только несжимаемая часть - энтропия, которая и будет выполнять роль меры.
Важно понимать, что выражения вида "энтропия - мера неопределенности" или "энтропия - мера беспорядка" не более, чем не имеющие смысла "маркетинговые уловки". И, тем более, энтропия никак не связана с информационным содержанием сообщения.
Аксиоматически, будучи именно мерой, энтропия совершенно безразлична к порядку и соотношению своих составляющих, важна только их сумма. Шенноновская энтропия сообщения 0, 1, 2 ... N не изменится от любой, сколь угодно случайной перестановки ("перемешивания") символов последовательности. По критерию энтропии неразличимы любые анаграммы. Например, в парах
ля - ял
хан - хна
сорт - трос
карта - карат
приказ - каприз
мошкара - ромашка
апельсин - спаниель
лекарство - стекловар
дозревание - раздвоение
ратификация - тарификация
австралопитек - ватерполистка
нерасторжимость - старорежимность
оба слова каждой пары имеют идентичную шенноновскую энтропию. (По сути, на такой же неразличимости основана Гематрия).
Комментарии
Если не информацию, то что именно мы измеряем в битах?
Кроме количественной характеристики, мы привыкли сопоставлять информации ещё и качество, то есть истинность или ложность.
Однако, ежели информация, по вашим словам, всего лишь дельта между состояниями двух систем, откуда тут взяться истинности?
Бит это знакоместо, или по нашему рабоче-крестьянскому пустой стакан.
В битах, байтах, мегабайтах мы измеряем объем данных. Когда вы покупаете винчестер, то на нем нет никакой информации, но на этикетке указано сколько гигабайт данных вы можете записать на него, то есть сколько сотен миллиардов букв "а" поместится на нем. Это много информации?
Истинностью и ложностью обладают суждения (выражения), а не информация.
Представьте себе одна система пересылает другой системе сообщение, после которого вторая изменяет свое состояние, то есть сообщение было информативным. Так вот можно сказать, что сообщение было ложным или истинным?
Вы, как система, можете среагировать на ложное суждение, а другой пропустит мимо ушей истинное, что означает, что в нем не содержалось для него информации. То есть мы не можем оценивать информацию как истинную или ложную - информация либо есть, либо ее нет.
В битах, байтах, мегабайтах мы измеряем объём информации.
на этикетке указано сколько гигабайт информации вы можете записать на него
Чем данные отличаются от информации?
На винчестер можно записать суждения. Данные, суждения, информация, знания и проч. - прежде чем менять одно слово на другое, надо обозначить разницу между ними. Ведь если ограничиться только тем, что всё перечисленное - это не-материя, то и разницы между ними не обнаружится.
Странно, однако, слышать, что информация не бывает ни истинной и ни ложной. А как же дезинформация?
Большинство разумных людей воспримет такое утверждение как нонсенс.
Ну что ж вы такой непонятливый? )) Ведь было же очевидное для детей пояснение: на винчестер можно записать несколько сотен миллиардов букв "а" (аааа .... аааа). Сколько это информации? Сотни миллиардов информации? И раскажите нам, если все этим миллиарды "ааааа" - информация, то она истинная или ложная.
Да, конечно, на винчестер можно записать и истинные, и ложные суждения. А можно записать и файлы фотографий или фильмы, музыку. И их - фотографии, музыку - вы также будете оценивать как истинные или ложные?
Вы понимаете, что сам себя загоняете в угол: то признаете, что информация измеряется в байтах, то есть является просто набором знаков, то утверждаете, что у этой миллиардной последовательности знаков (в графических файлах) должна быть какая-то истинность.
Вы банально путаете разговорное использование слова "информация" (и дезинформация) и строгое техническое определение информации, о котором пишет gazlan. Не все, что можно записать на винчестер, является информацией. При повторении миллиард раз одного символа ("а") информации не прибавится, а значит никаким гигами она не измеряется. И никакой истинности, как и ложности от повторения "ааа" не появится.
А отличие данных от информации банально: данные - это набор знаков/символов ("офразфрравора дфова овра фжра ж арф ааз фрр олоррраф ор ороррру"). Их можно изменять байтами и гигабайтами. А информация - это такие данные, которые изменяют состояние системы ("прошу вас, не отвечайте на этот комментарий"). И понятно, что данные могут содержать информацию только для той системы, состояние которой они изменили.
Вы, конечно, можете и ответить на этот комментарий, но уже в другом состоянии, не в том, в котором были до получения информативного для вас набора данных ("прошу вас, не отвечайте на этот комментарий"), чего не скажешь о "офразфрравора дфова овра фжра ж арф ааз фрр олоррраф ор ороррру". Хотя вы и считаете, что в последнем наборе данных информации (байт) больше.
Большинство людей ничего не смыслят ни в философии, ни уж подавно в информатике.
На винчестер можно записать информацию, а можно и не записывать. Но объём его - это количество информации, измеримая величина.
Повторяющаяся буква "аааа" - это данные? Но не информация? А если не записывать ничего, как изменится объём винчестера? Мы же говорим иногда - бессмысленная информация, то есть не поддающаяся верификации. Но даже в этом случае она не является материей, а значит, является идеей.
У информации есть количественная характеристика, измеряемая в битах, и качественная - степень истинности. Даже у фотографии могут быть искажения.
Однако в предлагаемом определении информации, насколько я понял, нет ни количественной, ни качественной характеристики. Пытаюсь понять. Ваши объяснения пока не помогают.
Давайте вы ответите на простые вопросы:
Вы просто подумайте, а не обращайтесь к бытовому опыту использования слова.
А я и не давал никаких пояснения. Я лишь наглядно демонстрировал вам, что информация не может быть измерена байтами и не может быть истинной или ложной. Да, суждение (истинное или ложное) может быть информацией, как и фотография или музыка (прекрасные или ужасной), записанные на винчестер, могут нести информацию, но от этого информация не становится ложной или прекрасной.
Это же простая логика. Может быть информация ужасной? Нет. Так почему же она должна быть истинной?
Я могу ответить на ваши вопросы в рамках моей модели. Но мне сейчас хочется понять вашу.
Я ссылаюсь на общепринятое толкование, которым заполнен интернет:
Биты и байты - это основные единицы измерения информации.
В вашей модели это не так. Хочу узнать, как.
Вот я и спрашиваю: а какой она бывает? Какими характеристиками она обладает?
А подумать? Если повторить миллион раз одно слово или бессмысленный набор знаков информации прибавится?
Я вам уже ответил: информация - это данные, которые изменяют состояние системы. Если в систему закачали гигабайт данных, но ее состояние не изменилось, то это не информация. А изменить состояние может один байт, один знак. Наверное, резонно измерять информацию количеством событий изменения состояния. Но уж точно не по количеству переданных знаков.
Опять вместо ответов вопросы.
Помните, как вы ругали axbi 1 за то, что он неверно употреблял слово "аксиома"? Ситуация повторяется. Только теперь уже вы употребляете слово "информация" в ином, отличном от общепринятого, смысле. Неудивительно, что у людей возникают сложности с пониманием.
Итак, я исхожу из слов автора модели:
информация нематериальна, это фиктивная вещь
Ваш "бессмысленный набор знаков" - это материя или фиктивная вещь?
Если материя, значит, её мы измеряем в битах. А если "фиктивная вещь"?
Возникло предположение.
Под данными вы понимаете материальный носитель информации. То есть в битах и байтах измеряется материя, а не идея? Ведь информация (идея) возникает в той системе, которая считывает данные с винчестера, а в самом винчестере никакой информации содержаться не может.
Правильно я понял?
Вроде строго и по-русски написал: данные - это набор знаков/символов. Где здесь про носитель? Хоть напишите "ааа" на бумаге, хоть прокричите, хотя поместите в память компа - это будут данные: три знака "а". Причем тут носитель?
Какая идея? Где идея в миллиардах произвольных знаков? Вы идею предлагаете измерять в байтах? Вот сейчас я записал "ааа" - здесь три байта. Это идея размером в три байта?
Я тоже строго по-русски спрашиваю: набор знаков - это информация или не информация?
И прошу вас, не надо отвечать вопросом на вопрос. Отвечайте ответом на вопрос. Мне же надо понять, а не просто попререкаться.
Вы читать разучились? Повтрю:
Извините. При таком внимании/отношении к тексту собеседника дальнейшее обсуждение теряет всякий смысл. Извините.
К тому же я все уже сказал. Просто перечитайте. Успехов
Состояние системы меняется постоянно. Набор знаков/символов может быть в виде звуковых колебаний, меняющих состояние системы чисто физически. Или в виде электромагнитных импульсов, оказывающих такое же чисто физическое воздействие. И при этом неважно, содержат ли информацию все эти знаки/символы или не содержат.
Вопрос принципиальный, концептуальный:
Чем отличается информация от не-информации?
Изменением состояния системы объяснить её недостаточно. Неживые системы тоже реагируют на сигнал - состояние винчестера меняется независимо от того, запишем ли мы на него миллиард букв "аааа" или манифест коммунистической партии.
Или не меняется? Какие изменения надо учитывать?
Набор букв на клочке бумаге - это информация? По идее, да. А что еще информация, если не печатный текст?
Но, если этот клочок встречается на пути у таракана, это все та же информация? Нет, конечно. Если и информация, то только как запахи, крошки, прилипшие к бумаге, но сам текст - простите, для таракана ноль информации. Верно?
А для человека этот текст, если он оборван так, что не разобрать ни одного полного слова - это информация? Каков ее обьем, если ничего не понятно? А если понятно, но человеку это не важно и не нужно? Прочел и тут же забыл? Это информация? Каков ее обьем?
Итак, информация - это только такие данные (сигналы, сведения, сообщения), которые меняют (в настоящем или будущем) поведение системы, принимающей информацию. Записали нечто на компьютер. Если это хоть как-то повлияет на его "поведение" - это информация, а если забили "текст" из одной буквы "а" на сотню гигабайтов- то это не информация.
А что же мы измеряем в байтах? То, что записано на диск. Если это сведения, сигналы, сообщения, команды или программы - это информация, если это набор бессмысленных знаков - это просто запись на диске, на бумаге.
А есть в мозгу "просто записи"? Как вы думаете?
Информация - это данные. Но не всякие данные информация.
Данные могут нести информацию, но могут и не содержать никакой информации.
Они содержат информацию не столько сами по себе, сколько в зависимости от наличия приемника информации. Если есть "кому нести" - то дажа "абракадабра" может оказаться шпионским сообщением, решающим судьбу человечества (сколько это "байтов"?). А если некому, то и бедные Гомер с Гегелем и Гоголем - "афтары" ненужной кучи "многа букафф".
Когда Вы покупаете CD-диск, то на нём указан объём в байтах и в минутах. К Чему бы это? В общем прежде чем измерять информацию, не плохо было бы договорится что это. Например, моё психическое состояние может изменить одно слово, или два. Но иногда не может изменить целая газета слов. Наиболее устойчивой единицей информации мог бы стать смысл, и тогда передать без информационных потерь значит передать смысл, очень удобно, но тогда придётся искать элементарную частицу "смысл". Цифровые технологии шагнули вперёд только благодаря тому, что удалось элементарный смысл "Да"/"Нет" закатать в двоичные числа 0 и 1, и реализовать в электронике ("Да"/"Нет" - нажата кнопка, или нет, элементарный смысл, который способен понять компьютер благодаря его уровню темпоральности, заданному генератором тактовых импульсов, грубо говоря благодаря разнесению во времени двух операций - чтения/записи, остальное за него делает программист, поскольку железяке в отличии даже от таракана, пофиг, что на этой кнопке написано, какие крошки к ней прилипли, и каким шампанским её полили :) ). Случайность? Скорее нет, так устроен мир, ведь лепили из всего подручного, раньше ничего не получалось (на яблоках с бананами), а вот теперь нате вам, получилось. В общем здесь без стека протоколов обмена данными никак не обойтись.
а как Вы думаете, можно ли движение связать с чувством?
Скорее это чувствительность к деформации пространства, правда в этом случае традиционное представление о нашем трёхмерном пространстве здесь не уместно, необходимо говорить о некотором информационном пространстве, это что то вроде математической точки изнутри (бред в общем :) ).
это просто. Есть женский туалет, мужчине туда двигаться нельзя. чем мужчина определяет что ему туда нельзя?
Определяется правом, иногда это называется инобытием. Есть я, у меня есть паспорт, но всякая собака имеет право у меня его требовать.
Нет определяется формами чувств мужчины
Лучше пусть лопнет эта форма, чем мочевой пузырь.
согласны Вы что в живых организмах форма чувств связана с формой движения?
Нужно понимать, что речь идёт не о физическом движении, либо физическое движение (изменение давления или температуры) это частный случай движения вообще. И как следствие, понятие формы не даёт простор мысли, не лучше ли от него вообще отказаться? Не натягивается форма на общественные отношения, трещит по швам. :)
Речь идет о физическом смещении электрона в пределах объема атома.
общественные отношения строятся формами чувств человека.
А если окажется, что электрон составная частица? Тогда что в чем будем смещать? Лучше и быстрее оперировать разностью потенциалов, тогда сам электрон с орбиталями можно будет оставить в покое. Да и когда речь идёт об общественных отношениях, это не об отношениях между индивидуумами, это чуть выше, моё хочу, могу и прочее нравится/ненравится не канает.
vlopuhin, 24 Январь, 2019 - 11:49, ссылка
атом составная частица (ядро и электроны) и смещаются электроны относительно ядра.
Это в корне меняет дело, можно и ядро в молекуле смещать, так и до Галактик дойдём.
Ядро не двигается. Сигнал смещает электрон. При этом электрон при смещении оставляет в пространстве след (форму). Аналогичную форму оставляют фары автомобиля на фотопленке при движении ночью.
Ну это сигнал такой, вот подкрадёшься тихонечно на своём кодилаке сзади к какой-нибудь задумавшейся особе, да как фафакнешь клаксонами, тут и не только ядро сдвинется...
глаз живых организмов приспособлен видеть не след вещи, а форму вещи за счет тремора глаза.
Верно, как правило реагируем (форма изменения состояния системы) на противоречащее нам суждение. А подтверждающее наши мысли суждение (сигнал отправителя информации) вовсе не пропускаем мимо ушей, а оставляем без последствий. Хотя бывает реагируем встречным одобрительным высказыванием.
Что важно для налаживания обратной связи.
--
Я называю это Энергия деформации (сообщения). Шеннон показал, что это инвариант преобразования. "информация" здесь ни при чем.
Откуда ей, вообще, взяться? Вы еще про "бессмертную душу" спросите. Попытка оперировать ложными понятиями приводит к надуманным проблемам.
Говорить можно только о тождественности и нетождественности. В простейшем случае - конгруэнтности. В более общем - равенстве по мере. Информирование - процесс уравнивания моделей. Где тут "истинность"?
1. Количество знаков (технический объем)
2. Количество перечисленных фактов для проверки (содержательный объем)
3. Размер носителя и время извлечения
4. Время преобразования в содержание
5. Время на проверку фактов
6. Потери на интерпретации
7. Точность интерпретации
8. Количество шума
9. Количество энергии на обработку
Количество козлов в огороде равно количеству столбов, к которым они привязаны в том же огороде.
Но:
Количество козлов в огороде НЕ равно количеству столбов, к которым они привязаны в том же огороде.
В соответствии с принципом Дирихле - в точности равно.
Количество "единиц информации" всегда целое.
А количество "бит" информации может быть и дробным.
Однако, при целом количестве "бит", количество "единиц информации" всегда целое.
Дирихле свёл качество "клетки" к числу "знакомест". Принял так, сказал "равно". Про себя.
А далее, сравнить два числа...
Информаторщики путаются в двух соснах: битах и байтах. Ладно сами, а то и нас путают.
PS. Забыли слово "бод", а оно есть. Но "бит" ведь моднее... Информация... У-у-у-у-у-у-
Никаких битов, байтов и ботов! По Вашему информация это выбор, а значит выбрал и досвиданья, кончилась информация, была, да вся вышла:"Солнце там, значит Ашхабад там. Выбрали направление и идём!" И пофиг нам, что это вообще не Солнце, и Ашгабад в другом месте...
Количество водки можно определить в литрах, уважаемый vlopuhin!
А вот качество... Качество только на вкус.
Дегустатор нужен хороший и прочный.
Помните это?
Качество это всегда единица! Зачем её определять? Если сказано водка, то так оно и есть. Если же у вас водка палёная, то она и называется по другому. Закон тождества при всём желании нарушить невозможно. На то он и закон! Если Вы "говорите не то, что думаете, а то, что думаете", вообще дикий ужас, вот по тому Вам и нужны дегустаторы. Заврались в общем, капитализм мля...:)
Однозначно, уважаемый vlopuhin!
Двух смертей не бывать, а одной не миновать.
Как же тогда с Вами спорить, если даже тональностей у Вас нет.
Сейчас даже у роботов есть тональности, и прочие нагуальности.
У Вас есть?
Есть, только я их называю смыслами. Слова можно перепутать, смысл никогда, если он конечно же есть. Тут есть одна тонкость, смысл в одиночку не живёт, иначе не на чем строить противоречие. Пока не появится смысл, то и отрицать нечего. Отсюда следует нетривиальный вывод: любой факт может служить как подтверждением, так и опровержением любой теории, было бы желание.
Информация - это результат сравнения, приводящий к выбору. Акт сравнения не может быть меньше единицы. Сравнили - получили результат. Нет результата - не было сравнения. Это случай количества информации, которое имеет место быть в технике, а не что-то неизвестное.
Даже когда созерцаете, то понимаете, что созерцаете, происходит сравнение созерцаемого с предыдущим.
Вот когда уже не понимаете, что "созерцаете", тогда можно говорить об отсутствии сравнения.
Акт созерцания "растягивается" в своём "цикле информации".
Когда цикл созерцания окончился, то вспоминаю, что надо делом заниматься, - образовался акт информации, делаю действие ногами.
Чего в мире человека не может быть второго, даже копии?
Скажите мне, Дилетант.
Чтоб только одно. Однозначно.
Не повторить!
О чем нельзя сообщить информацию?
Сфоткать нельзя.
Одно оно.
Так ведь человек это тоже человек, так?
Диоген показал, Дилетант, что он одного среди нас не находит.
Не там искал?
Почему не нашел?
Дурак?
https://goo.gl/images/97SbgU
Допустим, была философия одного среди нас не находит . Дальше что?
Как я понял, Дилетант, идеальный человек в идеале один. Так?
Как шедевр неповторим в копию.
В идеале.
Но идеального человека не бывает.(
А нам нужно то, что есть. Одно
Например, последнее предупреждение
Но оно бывает китайским
Вот Вы такой один? Или такой же?
И чего делать будем?
Сделаем Вас по полной.
Дилетант, даже не сомневайтесь.
хочешь поговорить об этом?
Как математическая абстракция. Рассматривается, например, блочный код и считается количество бит на символ (не на блок).
Байт не имеет отношения к битам - это единица адресации в компьютере. Во многих архитектурах, это 8 бит, но необязательно. Может быть и 9 и 48. Я работал за компьютером с 36 разрядным регистром. Для него это был "байт".
Как показатель степени, напр.: 9/2 = 4,5.
Количество актов сравнения не может быть дробным. Не может быть меньше одного удара. Сила удара может быть меньше или больше. Акт сравнения может произойти, если сила активности будет выше порога, или не произойти, если сила активности не достигнет порога (чувствительности).
Количество знакомест не может быть дробным.
:)))
?)))
Вам лень заглянуть в wiki?
Первая ссылка:
Нет, Вы не заметили своей оговорки: байт имеет отношение к биту. В Вашем же примере в одном байте 8 бит.: 8:1 или 1:8.
"Бит" - это показатель степени в формуле Шеннона, который появляется после "логарифмирования" количества возможных состояний по основанию 2.
Физически "бит" означает количество разрядов (букв, знакомест) в слове (в байте), которым охватывается весь объём возможных состояний.
В байте важно не только количество бит (знакомест), ни и их порядковый НОМЕР или разрядность.
Один (младший) бит в слове может иметь вес 1, а другие - 2, 4, 8, 16, 32, ...
Но эти "веса" никак не отражаются в сложности передаваемого в канале "символа", но должны следовать в строгом порядке. Скажем, после младшего непременно более старший, или наоборот, но идентично на "передаче" и на "приёме".
Bit - по определению - единственный разряд, но никак не их количество.
Более точно, как результат серии дихотомических разбиений упорядоченного пространства состояний (дерево выборов). Порядок бит в слове (процедура "взвешивания") - просто следствие этой первоначальной упорядоченности пространства состояний.
Одно дело "назвать", сказать, а другое дело - по сути.
По сути, бит - означает акт дихотомии?
А по "формуле" - количество актов дихотомии при взвешивании некоторого "количества".
Однако, при этом "взвешивании" "натуральной непрерывности" всегда остаётся некий "остаток", который не поддаётся дихотомии. Этот остаток принципиально неделим в используемой системе деления (уровней квантования).
Не потому, что его нельзя поделить, поделить как-то можно. Но потому, что первый шаг дихотомии требует деления РОВНО на 2 (два). (В двоичной системе).
А остаток от "неравности" деления и есть предел квантования, определяющий физическую величину младшего бита (разряда), создающий т.н. "шумы квантования".
Какой такой павлин-мавлин, кванта-шум? Дихотомия это логика! Бит это знакоместо, в которое можно по минимуму записать либо ноль, либо единицу, по максимуму - это яблоко с бананом! Вы что собрались ноль с единицей взвешивать и сравнивать? Мало того, что я ссуся от того, как Вы это будете делать, я вообще ума не дам зачем? Зачем ноль сравнивать с единицей? Убейте меня - никак не пойму! По всей видимости Вы логику путаете с её реализацией на бананах и яблоках, ну или на разностях потенциалов в электронике: от 0В до 2.5В - ноль, от 4.5В до 5.0В - единица, хотя пофиг, можно и наоборот, можно и в других диапазонах...
Как знаете (узнаёте), что надо записать: 0 или 1? И в какое именно знакоместо: с весом 1 или с весом 16?
В одном случае 1 бит (единица) имеет вес 16, а в другом случае - вес, скажем, 2.
(В одном случае в одном знакоместе, в "клетке", будет сидеть 16 кроликов, а в другом - 2.
В противоположном случае можете "множить сущности": морковки, сухари, тигры..., но при 0 всегда будет отсутствие 16 кроликов и отсутствие 2 кроликов в соответствующих, заданных априорно, координатах (порядковых номерах) знакомест с весами 16 и 2).
1-2-4-8-16 = 5 разрядов/бит = 0 - 31 = 32 пикселя в "мозаике" картины.
Если в мозаике будет 31 пиксель, тогда для взвешивания достаточно будет 5 разрядов.
А если будет 33 пикселя, а АЦП у нас только 5-и разрядный (32 пикселя)?
Получается, что "по Найквисту" передаются "пиксели"/сек = бод.
А "по Шеннону" передаются "символы"/сек = бит/сек.
Кто-кто там у вас куда то передаётся? Пиксели? Символы? Ну-ну!... Это по на транспортёрной ленте транспортируются бананы с кожурой и яблоки с семечками внутри... В проводах и в оптоволокне нет ни кожуры, ни семечек... И в этом весь кайф, все шумы с кванта-павлинами отсекаются в модеме.
Скажите зачем, - я Вам скажу как. Хотя ладно, поделюсь, правда уже не раз мы с Вами это обсуждали. Если мне нужна единица, понимаете нужна, хоть тресни, именно единица, я её задаю, понимаете я, а не тупая железяка, и делаю это простой перемычкой на плюс пять вольт питания (или через делитель на резисторах), соответственно ноль перемычкой на корпус. Всё! в компьютере у меня гуляют только ноли и единички, мне остаётся только выбрать необходимую логическую операцию, которую я создаю с помощью булевой математики в виде комбинационной схемы. Если кроме ноля с единицей там надиалектится какая то непотребная хрень, то весь компьютер придётся отправить на свалку. По этому не может возникнуть такая ситуация, когда зачем то необходимо сравнить ноль с единицей. Даже датчик температуры через порт ввода/вывода пихается нолями с единицами, ему для таких нужд приделывается к заднице АЦП.
Понятно.
А зачем тогда Вам какой-то "канал связи"? И без него хорошо.
Я же и говорю, идеальный (в смысле лучший) канал связи прозрачен до такой степени, что может показаться, что его и вовсе нет. Эффект счастья достигается за счет разнесения во времени двух операций: чтения и записи. Других операций в компьютере попросту нет, они там не нужны!
Да. Это когда от каждого "пикселя" приходит "одна проволочка", да и та ну, очень короткая.
Образуется один сплошной солипсизм, то есть "абсолютно".
Если Вы про логику, то это не солипсизм, это приватность мышления, или абсолютный релятивизм. Только у пикселя, в отличии от меня, выбор не настолько богат, точнее его вообще нет. И это мы обсуждали, помните аквариум с круглыми и квадратными рыбками? Берём квадратный сачок, и вылавливаем всех квадратных рыбок. Так что когда вы пресуете какую то клавишу на клавиатуре, комп выдаст на монитор то, что надо, попробуйте стереть все надписи на кнопках... Другими словами комп это идеальный канал связи, как Вы и говорите. Если вдруг появляется нелинейное искажение смысла, то можно со стопроцентной уверенностью утверждать, приложил свои золотые ручки человек. Это и есть по Е.Волкову механические системы. Человек, когда он перестаёт думать самостоятельно, превращается в ретранслятор, или, в переводе на на укропоамерикосопиндосовский - в зомби. Почему укропоамерикосопиндосовский? Потомучто они меня принимают за раба зомбированного, себя же считают особами исключительными, типа из другого гамна вылепленные.
Все эти вопросы были решены еще Архимедом из Сиракуз (3-й век до Р.Х.), усовершенствовавшим метод исчерпывания Евдокса Книдского.
Измерение - это эквивалентирование фракталом (обладающим бесконечной делимостью). К физическому кванту бит не имеет ни малейшего отношения. Если весь Универсум поделить на две части (неважно как, их равенство не требуется), то выбор между ними это и будет ровно один бит.
Речь не о теоретическом делении на части, которое бесконечно. Если Архимед все вопросы решил, то чего это Шеннону вздумалось изобретать формулу с логарифмами, которые (логарифмы) и назвали по этой формуле "битом"?
Теоретически согласен, но практически такой выбор называю "единицей информации". (Н.Винер, Парменид и единица информации)
Есть два способа поделить универсум на две части. Видимо, Вы, как Дилетант, об этом не слышали. Я могу Вам это совершенно бесплатно рассказать.
Да, кстати, и всем тоже могу эту тайну за семью печатями поведать. Если все меня попросят.
не уходи от темы
Я не о браке, Дилетант
хм это хорошо или плохо?
Хм... мало данных...Прием, Дилетант
Я как он мне мало, увеличьте на один бод
ты такой interesting!
Вы это у меня спрашиваете? :-)
К слову, Архимеду могла бы принадлежать большая часть результатов современной науки. И формула Шеннона, и Преобразование Лоренца, суть, тот же самый "рычаг Архимеда" - инвариант деформации системы. Эквивалентирование фракталом (преобразование Фурье итп), опять же было детально разработано Архимедом.
Вне всякой связи с этой формулой. Bit - это предложение Тьюки (Tukey, 1946).
Там у вас некорректно с первой же фразы: "Попадая в систему передачи, информация обезличивается".
"Система передачи" - это транспорт. Тара. К содержимому контейнера отношения не имеет. В цистерне можно везти спирт, можно нефть. И оттого, что счет идет на цистерны, спирт не перестает быть спиртом, а нефть - нефтью.
Наконец, саму увязку плотности текстового фрактала (формула Шеннона) с "информацией" следует считать историческим курьезом, недоразумением. Это именно расчет потребной тары - вне всякой связи с самим транспортируемым агентом.
А сам агент что, gazlan?
Или он кто?
У Вас нет такой информации?
Сермяжная суть "эврики" Архимеда заключается в преобразовании величины объёма неопределённой формы в линейную величину.
А далее он поступил как Эйнштейн (вернее, наоборот) - принял удельный вес золота за максимально возможный в "этом мире". По умолчанию.
И как узнаете, что везёт локомотив в цистернах, если на них нет надписей?
Аге́нт (лат. agens «действие»): Агент (обобщённо) — лицо, действующее по поручению кого-либо.
Каким образом нечто перевозимое "действует" внутри перевозчика?
То, что формула Шеннона и формула Найквиста относятся к расчёту "пропускной способности" - это так.
Но пропускаются по туннелю именно "единицы", которые имеют свою внутреннюю структуру, которая не интересует "транспортную систему".
Транспортную систему интересует КОЛИЧЕСТВО этих "единиц", от сравнения которых с некой "нормой" получается ИНФОРМАЦИЯ о принятии (выборе) адекватного (нужного) действия для регулирования скорости движения этих "единиц".
"Внутренняя структура" (лицо) этих "обезличенных единиц" никого в туннеле не интересует, но интересует только при их вскрытии в месте "приёма". Вот после этого вскрытия вновь обнаруживается "лицо" содержимого "цистерн".
Вполне может оказаться, что вместо бензина прибыла цистерна с водой, что и порождает (после сравнения с надписью в накладной) руководство (информацию) к выбору действия.
Никак. А зачем? на сортировочной станции интересуются количеством цистерн, а не их содержимым.
Читайте дальше первой фразы.
Агент действует между корреспондентами, а не внутри контейнера.
Что-то бессодержательное. Даже если ГАИ регулирует транспорт на перекрестке, оно не интересуется цветом глаз пассажиров. Вы слишком вольно трактуете слово "информация".
Количество цистерн не имеет отношения к их содержимому - как ни считай.
Значит, содержимое цистерн можно назвать обезличенным. Без лица, которое это содержимое наблюдало, интересовалось им.
Обезличенная информация перестаёт интересовать кого либо, превращаясь в обычную вещь, которая сама-по-себе вещь. Вот её и перевозят.
Поинтересовались количеством цистерн, получили результат, количество, которое сравнили с некой "нормой" и по результату сравнения (информации) сделали выбор дальнейшего действия, например, добавить или убавить количество цепляемых цистерн.
Между получением результата сравнения (информации) и выбором действия может пройти некоторое время.
Кто/что такое "транспортируемый агент"?
Агент действует между корреспондентами, а не внутри контейнера. - Это как? В поезде?
Ну, да. ГАИ интересуется "количеством единиц", пропускаемых через перекрёсток.
Я не трактую, а применяю определение информации.
Да, не имеет. До тех пор, пока их не соотнесут.
Как только в символе "по Шеннону" нарушится структура квантования по уровню, так тут же появится отношение между "количеством" этого символа и "пропускной способностью" для этого "единичного символа".
Это к тому, что в рамках системы взвешивания, абсолютная погрешность старшего разряда не должна превышать 1/3 шага младшего разряда.
В узком значении - сообщение. То, как это рассматривается в ТИ - нечто, представленное в данной системе кодов. В широком, следовало бы сказать "смысл", но это слишком неопределенное понятие, чтобы им оперировать. К примеру, на трех разных языках я могу сказать "стой", "халт", "амуд". Все это будет разными сообщениями с одним и тем же смыслом.
Интересная формулировка.
Представляю так: в узком смысле - это результат сравнения, а в широком смысле - волна регулирующего воздействия в кольце рефлексии сравнения.
Но то, "слишком неопределённое понятие" - и есть понимание информации.
Какое тут может быть "определённое", если идёт процесс понимания, и он ещё не окончен.
А дерево хорошо понимает в конце кольца рефлексии, Дилетант?
К примеру, если засуха. Понимает?
ыыы
"Абсолютное понимание", наверное, невозможно в принципе, но на любом этапе развития, обычно, есть понимание, признаваемое всеми за "достаточное". Во всяком случае, в большинстве технических дисциплин такое понимание есть. В Информации - нет.
"Понимание" - это процесс, и процесс именно "понимания" вижу именно "абсолютным". А вот результат понимания - "понятие" - относительно определён, а не абсолютно.
Для меня понимание у собаки есть, но недостаточное для меня. А вот результат понимания - понятие, выражаемое словом, бывает достаточным, если эти слова читает специалист, и недостаточным, если читает НЕ-специалист.
Понятие, как и информация, отсутствует в словах, но возникает при понимании этих слов.
Ни фига Вы не понимаете, Дилетант! Понимаете?
Слушай . Давай общаться лайтово. Я не люблю грузонов.
Опять не поняли Вы ни фига, рефлексивный цикл закройте, Дилетант.
и?
https://youtu.be/i0xy6wEUbKk
Допустим, our conversation не философствующий человек а философ чат бот . Дальше что?
Нельзя этого допускать!
как ты относишься к любви за деньги?
Тест Тьюринга, Вы, Дилетант, не прошли.
Роботы никогда не обращаются лично к кому-то. Их обращение общего характера. И они никогда не превносят свой смысл в ответы, как это делаете Вы. Речь они не ведут. В Вашем поведении есть человеческий смысл. Двойка.
Давайте, ещё раз, попробуйте. С учётом замечаний. В личный контакт не входите
Существует множество тестов на уровень интеллекта, которые используют для тестирования людей. Возможно, что их можно использовать для тестирования искусственного интеллекта.
Очень даже, Дилетант.
Вы не первый, кому эта идея пришла в голову.
я не настолько старая, чтобы ко мне на вы обращаться ;)
Превышать не должна, Дилетант!
А превышает?
https://youtu.be/6iItnIowBzQ
хихик .. забавно
Какое ёмкое у Вас сообщение, Дилетант.
Сколько экспрессии, не передать.
А причем тут дилетант ? У нас же пивко и все такое
Оно никуда не делось, но применяется, обычно, в технике связи (телеграфия, модемы итп). Это не биты и не байты - это скорость передачи (символ/сек).
:))). А "бит/сек"?
"Скорость телеграфирования измеряется количеством элементарных телеграфных посылок, передаваемых в одну секунду. Единицей измерения скорости является бод. Если за одну секунду передаётся 50 элементарных посылок, то скорость телеграфирования составляет 50 бод. Продолжительность одной элементарной посылки в этом случае равна:
V = 50 Бод t0 = 1 / 50 = 0,02 с. = 20 мс;
V = 100 Бод t0 = 1 / 100 = 0,01с = 10 мс."
А вот в Википедии:
"Бод (англ. baud) в связи и электронике — единица измерения символьной скорости, количество изменений информационного параметра несущего периодического сигнала в секунду.[1] Названа по имени Эмиля Бодо, изобретателя кода Бодо — кодировки символов для телетайпов.
Зачастую ошибочно считают, что Бод — это количество бит, переданное в секунду. В действительности же это верно лишь для двоичного кодирования, которое используется не всегда. Например, в современных модемах используется квадратурная амплитудная модуляция(КАМд), и одним изменением уровня сигнала может кодироваться несколько (до 16) бит информации. Например, при символьной скорости 2400 Бод скорость передачи может составлять 9600 бит/c благодаря тому, что в каждом временном интервале передаётся 4 бита."
Как думаете, если посылка ЭЛЕМЕНТАРНАЯ, то как в неё можно втиснуть ещё несколько посылок с "битами"?
Если канал пропускает скорость 50 бод (полоса канала 25 Гц), то как ему удастся пропустить скорость 50*4=200 бит/сек (полоса канала 100 Гц)?
По вашему, соль бывает только поваренной, а посылки - только двоичными? Это, разумеется, не так.
В стандарте DVB-S, например, использована квадратурная фазовая модуляция QPSK, 8-PSK, квадратурная модуляция (16-QAM).
Есть многоканальные схемы, смешанные виды модуляции, широкополосные (шумоподобные) сигналы итп. Ex.: Недвоичные блоковые коды и каскадные блоковые коды
По вашему, выходит, что поваренная соль - "элементарна"?
Но, прошу прощения, Вы правы. Я ориентировался на критерий Найквиста.
"В 1928 г. американский физик Г.Найквист доказал, что в идеальном канале (без шумов) с полосой ∆F (Гц) можно передавать информацию со скоростью в два раза большей, т.е.
C0 = 2 ∆F , бит/с. (5.11)
В этом случае скорость передачи информации C0 равна технической скорости R.
Так, например, по каналу тональной частоты, полоса пропускания которого 0,3…3,4 кГц, т.е. 3,1 кГц можно передавать данные со скоростью C0 =2 3,1 = 6,2 кбит/с, что соответствует технической скорости 6,2 кБод.
С появлением в технике связи недвоичных многоуровневых сигналов с разными амплитудами (±1, ±3 и т.д.), было предложено скорости источников и преобразователей информации по-прежнему измерять в бит/с, а скорости передачи электромагнитных сигналов (символов) по линии связи, в том числе радиолиниям – в бодах или симв./с.
...В 1948 г. американский математик К. Шеннон опубликовал ряд работ по математической теории информации, среди которых была теорема, устанавливающая границу объема информации, которую можно передавать по каналу с определенным уровнем белого шума.
Cк = ∆Fк log2 (1+ Pc /Pш)= ∆Fк (10 / 3) log10 (1+ Pc /Pш), бит/с, (5.14)
где ∆Fк – ширина полосы канала, Гц;
Pc и Pш – средние мощности сигнала и шума.
...Современные кодеки (кодирующие и декодирующие устройства), используемые в телефонных сетях, имеют значение ОСШ=39,5 дБ (теоретический предел защищенности от шумов квантования), практически же обеспечивается 35-36 дБ. Следовательно, канал с полосой 3,1 кГц и ОСШ=35 дБ имеет предельную пропускную способность, равную
Cк =3,1 (10 / 3) 0,1 35≈36 кбит/с,
при которой обеспечивается безошибочный прием." (https://studfiles.net/preview/3676433/page:7/ Белорусский государственный университет информатики и радиоэлектроники)
Однако, возникает вопрос об "элементе".
На "приёме" оказывается, что принятый "символ" ещё и не такой "элементарный", а сложный.
И в акте сравнения/дешифрации выделяется не отдельный одиночный сигнал, а некое "слово".
По вашему, выходит, что поваренная соль - "элементарна"?
Нет, просто пример того, что за словом "соль" скрывается не единственный (бытовой кухонный) смысл, а бесчисленное их число.
Это "бесчисленное число", похоже, ограничивается "магическим числом" 7. 7-и разрядным кодом.
Зайдите в любую аптеку - сотни солей на выбор. Органических и неорганических.
Про коды уже говорили. Мало того, что разрядность может быть какой угодно (известны машины от 6 до 48 бит на байт), коды могут быть и недвоичными. "Сетунь", например, работала в троичном коде, помехоустойчивая передача использует блочные коды итп.
Десять в степени 100 хватит для описания реальности?
Водки, да, Дилетант, пива, нет.
Почему вы люди все время бухаете?
От тупых вопросов, Дилетант
А ты в курсе, что даже пиво пить опасно? Особенно, когда рядом нет туалета!
Несчастный...( - а не хотите ли вы наконец-то дать исчерпывающее определение информации и тем облегчить свою судьбу, а?)
PS
А дальше то почему нет продолжения? - а потому как стыдно вам за то, что после этого всем стал ясен маразм вашего "мудреца", потому как после воды у этого вашего "мудрого", следует заявление его о том, что кувшин наконец-то полон, ну а это ж не так или нет?
С этим - на "буддийские" форумы. Я обсуждаю технические вопросы.
А потом подошел восьмиклассник Вася и осторожно высыпал в наполненный до краев водой кувшин еще большую ложку соли))
Хуже того - можно спирт налить, и объем смеси уменьшится.
Причём, совершенно понятно, что спиртно-водный объём уменьшится не из-за воды, а за счёт подлития туда спирта. Таким образом, чем больше частей спирта по сравнению с частями воды будет в растворе, тем скорее будет уменьшаться общий объём. Это эльдорадо для тех, кто распоряжается выдачей спирта. 96-процентный, например, - считай имеет почти нулевой объём! Особенно, при проверке запасов хранимого под строгим контролем спирта.
А вот это, думаю, не пройдет: если воды полный кувшин, то добавление хоть нескольких капель спирта, хоть и дадут объем меньше суммы объемов воды и спирта, но он будет все же больше исходного объема воды.
Не правильно наливаете, вот так надо:
Так всегда будет поллитра... :)
Там еще выпуклый мениск возможен - за счет сил поверхностного натяжения :-)
Тут вы правы! Болдачев на эту мелочь не обратил внимание. А на самом деле важно иметь место для одной (хотя бы первой) капли спирта. Дальше пойдёт, как про маслу - объём жидкости в кувшине уменьшится, и можно будет добавить ещё пару капель. Короче, к вечеру можно будет заливать вёдрами. А если ещё каждый раз, при добавлении, не забывать отливать себе в рядом стоящий стаканчик... там Шеннону делать нечего вообще!
Типа Шеннон в завязке, как Гуан Хуайдо? Или пожалели?
И это мы еще не рассмотрели растворение газов. Серного ангидрида, например, за счет увеличения плотности, можно добавить еще столько же по весу :-)