Большая техническая энциклопедия
2 3 8 9
U
А Б В Г Д Е Ж З И К Л М Н О П Р С Т У Ф Х Ц Ч Ш Щ Э Ю Я
ОБ ОВ ОГ ОД ОЖ ОЗ ОК ОЛ ОМ ОП ОР ОС ОТ ОФ ОХ ОЦ ОЧ ОШ ОЩ ОЫ

Оценка - количество - информация

 
Оценка количества информации, получаемого с помощью спектрального прибора, сводится к оценке его количества, содержащегося в спектрограмме. В конечном итоге любая форма представления регистрируемого спектра / ( а) может быть сведена к графическому представлению некоторой энергетической характеристики как функция волнового числа, где согласно принятой методике описания регистрируемых спектров дискретность связывается с df и do соответственно.
Функциональное обозначение логических элементов. Для оценки количества информации и упорядочения процесса ее обработки используются структурные единицы информации.
Для оценки количества информации, содержащейся в конкретном сообщении, существует так называемая кибернетическая мера, характеризующая увеличение уверенности в принятии диспетчером правильного решения по управлению энергосистемой при наличии поступившей информации.
Совладение оценок количества информации по Шеннону и по Хартли свидетельствует о полно.
При оценке количества информации, заложенного в дискретных сигналах теорией информации, учитывается не только число возможных сообщений, приходящих на вход системы, но и их вероятности.
При оценке количества информации в семантическом и прагматическом аспектах необходимо учитывать и временную зависимость информации. Дело в том, что информация, особенно в системах управления экономическими объектами, имеет свойство стареть, т.е. ее ценность со временем падает, и важно использовать ее в момент наибольшей ценности.
При оценке количества информации применяются различные единицы измерения. Назовем основные из них, наиболее часто используемые в практике.
Однако одной оценки количества информации для проектирования АСУП недостаточно.
Таким образом, оценки количества информации дают нам строгое доказательство того, что один вопрос ( как бы он ни был поставлен.
Показательным является пример оценки количества информации, содержащейся в сообщении о положении выключателя. Если вероятность включенного состояния выключателя Рвкл 0 9995, а отключенного откл - 0 0005, то среднестатистическое количество информации, поступающей от этого выключателя, составляет согласно ( 4 10) / Янач - Рвкп Iog2 Рвкл - Роткл Iog2 Рогкл - 0 9995 Iog2 0 9995 - 0 0005 Iog2 0 0005 0 0062 бит, т.е. очень малую величину. Кроме того, статистическая мера информации не позволяет оценить количество информации, содержащейся в сообщениях о включенном и об отключенном состояниях выключателя. Для диспетчера эти сообщения принципиально различны, так как первое свидетельствует, как правило, о нормальном режиме работы, а второе - об аварийном состоянии.
При рассмотренном способе оценки количества информации эффективность прибора связывается с эффективностью использования энергии источника.
Таким образом, для оценки количества информации, необходимого для удовлетворения запроса, требуется знать следующие определяющие величины: диапазон возможных концентраций, необходимую точность определения, число определяемых элементов.
Таким образом, для оценки количества информации, заключенной в сигнале ( сообщении), необходимо оценивать сигнал с точки зрения неопределенности, обусловленной его законом распределения. Количественную меру неопределенности очередного значения сигнала называют энтропией.
Условная энтропия используется для оценки количества информации, которую вносит помеха в сигнал, передаваемый по каналу связи.

Последние соотношения и позволяют вывести оценки количества информации для произвольных структур, описываемых линейными дифференциальными уравнениями. Выражения получаются как во временной, так и в частотной областях для систем, удовлетворяющих или не удовлетворяющих условиям физической возможности, с конечным или бесконечным временем переходного процесса.
Как уже отмечалось, при оценке количества информации, полученной в результате исследования, нужно исходить из плотности профилей на рекогносцировочном и поисковом этапах.
На практике применяется статистический подход к оценке количества информации. При установлении рационального потока информации целесообразно применять метод от общего к ча стному, от верхнего уровня управления к нижнему. Перечень необходимой информации должен устанавливаться для всех ни-доь деятельности предприятия.
Математическая теория информации исследует способы определения и оценки количества информации, процессов хранения и передачи ее по каналам связи. Она исходит из данных, предназначенных для сохранения в запоминающем устройстве или для передачи по каналам связи. Известными здесь являются лишь множества, из которых могут быть выбраны эти данные, или же вероятности выбора тех или иных данных. Потоки плановых, нормативных, статистических, бухгалтерских, оперативных сведений, их хранение, переработку и использование можно рационально организовать только на научной основе, на основе математической теории информации.
Мера информации Шеннона не всегда является приемлемой при оценке количества информации, используемой в АСДУ. Она дает представление лишь о среднестатистическом количестве информации, которая может быть получена от контролируемого электроэнергетического объекта, и не позволяет оценить количество информации, содержащейся в конкретном сообщении.
Мера информации Шеннона не всегда является приемлемой при оценке количества информации, используемой в АСДУ. Она дает представление лишь о среднестатистическом количестве информации, которая может быть получена от контролируемого электроэнергетического объекта, и не позволяет оцепить количество информации, содержащейся в конкретном сообщении.
Особый интерес представляет методика [47], основанная на оценке количества информации, получаемого в единицу времени, и количества информации, поступающего на вход прибора. В этом случае можно говорить как об информационном КПД прибора, являющемся мерой потерь информации, обусловленных деформацией и загрязнением исследуемого распределения в процессе трансформации из-за наличия систематических и случайных искажений, если заведомо известны их характеристики, так и о допустимой величине погрешностей измерений для обеспечения желаемого значения КПД.
ИНФОРМАЦИИ ТЕбРИЯ, наука о способах вычисления, оценке количества информации, изучающая процессы, связанные с передачей, приемом, преобразованием п хранением информации. Заранее известно лишь множество, из к-рого могут быть выбраны эти сообщения. Важно то, с какой вероятностью могут появиться различные варианты возможных сообщений. Обмен информацией происходит в системах сиязи, состоящих из источников информации, передатчиков, каналов связи, приемников и получателей, и сопровождается воздействием помех, вызывающих искажения и потерю информации. Для оценки возможностей каналов связи пользуются понятием пропускной способности канала. В процессе обмена информацией происходит передача как новых сведений, так и частичное повторение старых.
Второй вариант формулы Шеннона и формула Хартли удобнее при оценке количества информации применительно к автоматизированным системам управления производством и технологическими процессами.
Таким образом, энтропия является мерой неопределенности источника и удобной оценкой количества информации.
Таким образом, энтропия является мерой неопределенности источника, удобной оценкой количества информации.
Общая схема преобразования информации.| Схема передачи информации в задачах связи. Анализируя свойства множеств, указывают [4.5] на ряд подходов к получению оценок количества информации. Одним из таковых является принцип нахождения оценок количества информации для множеств, элементы которых обладают вероятностными свойствами. Именно этот подход обсуждается в дальнейшем.
Теория информации - раздел кибернетики, в котором математическими методами рассматриваются вопросы оценки количества информации, содержащейся в сообщении, и исследуются процессы передачи и хранения информации. На рис. а приведена схема передачи сообщений по каналу связи.

Следующие теоремы почти очевидны, но в применениях к конкретным случаям доставляют полезные методы вычисления и оценки количества информации при помощи предельных переходов.
Разработан информационный подход в отношении проектирования и организации операторских видов труда, определены информационная вместимость различных средств отображения информации и методика оценки количества информации в различных сигналах и сообщениях.
После этого А. Н. Колмогоровым была предложена окончательная редакция заметки, в которой подчеркивается, что по существу переход от конечного случая к общему и вычисление и оценка количества информации при помощи предельных переходов совершенно тривиальны, если вести изложение в терминах нормированных булевых алгебр. Не представляло бы, конечно, большого труда сформулировать и более общие принципы предельного перехода не по п - оо, а по той или иной частичной упорядоченности.
Такое простое сопоставление потребностей сигнала с возможностями канала связи практически не всегда допустимо вследствие того, что по реальному каналу к приемному устройству поступает не только сигнал, но и помехи. Это обстоятельство изменяет оценку количества информации.
Анализируя свойства множеств, указывают [4.5] на ряд подходов к получению оценок количества информации. Одним из таковых является принцип нахождения оценок количества информации для множеств, элементы которых обладают вероятностными свойствами. Именно этот подход обсуждается в дальнейшем.
Известно, что эта мера не учитывает османтические и прагматические аспекты проблемы. Поэтому на практике применяют статистический подход к оценке количества информации.
Да простят мне утилитарно настроенные читатели этот пример. В оправдание замечу, что более широкая проблема оценки количеств информации, с которыми имеет дело творческая человеческая деятельность, имеет очень большое значение.
Интерес к разнообразным задачам передачи и хранения информации имеет большую давность. Давно, по существу, возникали вопросы об оценке количества информации. Вопрос о возможности введения универсальной числовой меры для количества информации особенно важен в случаях необходимости преобразования информации одного рода в информацию качественно другого рода.
Информационные характеристики, такие, как скорости передачи информации, целесообразно применять при рассмотрении процессов обработки больших массивов исходных данных. Для измерительных устройств систем информации и управления удобнее использовать оценку количества информации, содержащейся в результате измерения относительно значения измеряемого параметра, в момент измерения. Такая постановка во многих случаях соответствует принципам работы информационно-измерительных систем. По этой причине в дальнейшем обсуждаются оценки количества информации в единственный момент времени.
Построение и анализ тестов могут быть выполнены с использованием методов, изложенных в работах [11, 20, 24], посвященных исследованию формализованных методов алгоритмизации процессов диагностирования. Несколько обособленными следует считать методы минимизации программ поиска дефекта, основанные на оценке количества информации. В [13] показано, что оценка поиска дефекта возможна как для равновероятных, так и для неравновероятных событий. Несмотря на кажущуюся простоту задачи, определение оптимальной программы поиска дефекта для систем с неравновероятными дефектами элементов сложно.
При этом вполне допустимы и развиваются несколько направлений в формулировке соотношений количества информации. Если результаты опыта характеризуются статистической устойчивостью ( устойчивостью частот), то для построения оценки количества информации естественно использовать результаты теории вероятностей.
Сложность алгоритма - минимальное количество информации, необходимое для его описания. Исчисляется сложность алгоритма в единицах информации - битах или байтах. Однако оценка количества информации, минимально необходимого для описания алгоритма, представляет собой чрезвычайно трудную задачу. В практических приложениях сложность алгоритма целесообразно определять длиной записи алгоритма в терминах определенной алгоритмической системы.
Графики функций у каждой буквы алфавита п. Количе - х - 1 и ylogx ство Инф0рмации в сообщении дли. Из сравнения формул (1.4) и (1.3) следует, что энтропия может быть определена как среднее количество информации на один символ сообщения. При равных вероятностях исходов ситуация наиболее неопределенная и Сообщение содержит максимальное количество информации. Совпадение оценок количества информации, по Шеннону и Хартли, свидетельствует о полном использовании информационной емкости системы. В случае неравных вероятностей количество информации по Шеннону меньше информационной емкости системы, что видно из следующего примера для двух исходов.
В настоящем параграфе рассматривается задача анализа информационных характеристик измерительных устройств. В предыдущих параграфах было проведено обоснование обсуждаемой меры и исследованы некоторые свойства информационной характеристики. Необходимо еще раз подчеркнуть, что оценка количества информации строится на базе вероятностной меры. Это же и означает, что не рассматриваются случаи детерминированных возмущений.

Наше определение количества информации в прикладном отношении имеет то преимущество, что оно относится к индивидуальным объектам, а не к объектам, рассматриваемым в качестве включенных в множество объектов с заданным на нем распределением вероятностей. Но было не слишком понятно как его применить, например, к оценке количества информации, содержащейся в романе или в переводе романа на другой язык относительно подлинника. Я думаю, что новое определение способно внести в подобные применения теории хотя бы принципиальную ясность.
Информационные характеристики, такие, как скорости передачи информации, целесообразно применять при рассмотрении процессов обработки больших массивов исходных данных. Для измерительных устройств систем информации и управления удобнее использовать оценку количества информации, содержащейся в результате измерения относительно значения измеряемого параметра, в момент измерения. Такая постановка во многих случаях соответствует принципам работы информационно-измерительных систем. По этой причине в дальнейшем обсуждаются оценки количества информации в единственный момент времени.
Принято толковать возрастание макроскопической упорядоченности в онтогенезе и филогенезе как возрастание количества информации или убывание энтропии. Когда Шредингер говорил, что организм есть апериодический кристалл [42], то он имел в виду, что развитие организма подобно росту кристалла в открытой системе и оплачивается возрастанием энтропии в окружающей среде. Это общее положение безусловно правильно. Тем самым, мерой изменения энтропии организма в процессе развития может служить увеличение энтропии внешней среды. Это - единственная мера, так как мы не располагаем точными способами оценки количества информации в клетке или в многоклеточном организме.
Практическое же применение этого показателя чрезмерно затруднено по ряду соображений. Во-первых, при многоассортиментном выпуске продукции удельная информация приобретает множество различных значений, если количество информации соотносить к выпуску продукции, выраженному в натуральных единицах. Не является выходом из положения стоимостное выражение выпуска продукции, потому что при этом сильно искажается сама величина удельной информации. Во-вторых, природа такого показателя связана со средними величинами, ибо они формируются на основании месячного ( квартального) выпуска продукции. Практически значение удельной информации за фиксированный отрезок времени будет отличаться от расчетного. В-третьих, оценка количества информации по объему выпущенной продукции может в определенных случаях быть использована для характеристики ситуации лишь в общих чертах.
 
Loading
на заглавную 10 самыхСловариО сайтеОбратная связь к началу страницы

© 2008 - 2014
словарь online
словарь
одноклассники
XHTML | CSS
Лицензиар ngpedia.ru
1.8.11