Как представлять непрерывную информацию?, Выводы - Информация и способы ее получения
Для представления непрерывной величины могут использоваться самые разнообразные физические процессы.
В рассмотренном выше примере весы позволяют величину "масса тела" представить "длиной отрезка", на который переместится указатель весов (стрелка). В свою очередь, механическое перемещение можно преобразовать, например, в "напряжение электрического тока". Для этого можно использовать потенциометр, на который подается постоянное напряжение, например, 10 вольт, от источника питания. Движок потенциометра можно связать с указателем весов. В таком случае изменение массы тела от 0 до 50 граммов приведет к перемещению движка в пределах длины потенциометра (от 0 до L миллиметров) и, следовательно, к изменению напряжения на его выходе от 0 до 10 вольт.
Такое преобразование можно изобразить следующим образом:
Масса Длина Напряжение
0 - 50 [г] 0 - L [мм] 0 - 10 [в]
Выводы
- 1. Информация о массе тела может представляться, вообще говоря, многими способами. 2. В качестве носителей непрерывной информации могут использоваться любые физические величины, принимающие непрерывный "набор" значений (правильнее было бы сказать принимающие любое значение внутри некоторого интервала).
Отметим, что физические процессы (перемещение, электрический ток и др.) могут существовать сами по себе или использоваться, например, для передачи энергии. Но в ряде случаев эти же процессы применяются в качестве носителей информации. Чтобы отличить одни процессы от других, введено понятие "сигнал".
Если физический процесс, т. е. какая-то присущая ему физическая величина, несет в себе информацию, то говорят, что такой процесс является сигналом. Именно в этом смысле пользуются понятиями "электрический сигнал", "световой сигнал" и т. д. Таким образом, электрический сигнал - не просто электрический ток, а ток, величина которого несет в себе какую-то информацию.
Как представлять дискретную информацию?
Как уже говорилось, дискретность - это случай, когда объект или явление имеет конечное (счетное) число разнообразий. Чтобы выделить конкретное из всего возможного, нужно каждому конкретному дать оригинальное имя (иначе, перечислить). Эти имена и будут нести в себе информацию об объектах, явлениях и т. п.
В качестве имен часто используют целые числа 0, 1, 2,... Так именуются (нумеруются) страницы книги, дома вдоль улицы, риски на шкалах измерительных приборов. С помощью чисел можно перенумеровать все "разнообразия" реального мира. Именно такая цифровая форма представления информации используется в ЭВМ.
В обыденной жизни, тем не менее, цифровая форма представления информации не всегда удобна. Первенство принадлежит слову! Традиционно информация об объектах и явлениях окружающего мира представляется в форме слов и их последовательностей.
Основной элемент в этой форме - слово. Слово - имя объекта, действия, свойства и т. п., с помощью которого выделяется именуемое понятие в устной речи или в письменной форме.
Слова строятся из букв определенного алфавита (например, А, Б, ... , Я). Кроме букв используются специальные символы - знаки препинания, математические символы +, -, знак интеграла, знак суммы и т. п. Все разнообразие используемых символов образует алфавит, на основе которого строятся самые разные объекты:
- - из цифр - числа; - из букв - собственно слова, - из цифр, букв и математических символов - формулы и т. д.
И все эти объекты несут в себе информацию :
числа - информацию о значениях;
слова - информацию об именах и свойствах объектов;
формулы - информацию о зависимостях между величинами и т. д.
Эта информация (и это очевидно) имеет дискретную природу и представляется в виде последовательности символов. О такой информации говорят как об особом виде дискретной информации и называют этот вид символьной информацией.
Наличие разных систем письменности, в том числе таких, как иероглифическое письмо, доказывает, что одна и та же информация может быть представлена на основе самых разных наборов символов и самых разных правил использования символов при построении слов, фраз, текстов.
Из этого утверждения можно сделать следующий вывод:
Разные алфавиты обладают одинаковой "изобразительной возможностью", т. е. с помощью одного алфавита можно представить всю информацию, которую удалось представить на основе другого алфавита. Можно, например, ограничиться алфавитом из десяти цифр - 0, 1, ..., 9 и с использованием только этих символов записать текст любой книги или партитуру музыкального произведения. При этом сужение алфавита до десяти символов не привело бы к каким-либо потерям информации. Более того, можно использовать алфавит только из двух символов, например, символов 0 и 1. И его "изобразительная возможность" будет такой же.
Итак, символьная информация может представляться с использованием самых различных алфавитов (наборов символов) без искажения содержания и смысла информации: при необходимости можно изменять форму представления информации - вместо общепринятого алфавита использовать какой-либо другой, искусственный алфавит, например, двухбуквенный.
Форма представления информации, отличная от естественной, общепринятой, называется кодом. Коды широко используются в нашей жизни: почтовые индексы, телеграфный код Морзе и др. Широко применяются коды и в ЭВМ и в аппаратуре передачи данных. Так, например, широко известно понятие "программирование в кодах".
Кроме рассмотренных существуют и другие формы представления дискретной информации. Например, чертежи и схемы содержат в себе графическую информацию.
Как измерить информацию?
Как уже говорилось в примере с номером квартиры, одни сведения могут содержать в себе мало информации, а другие - много. Разработаны различные способы оценки количества информации. В технике чаще всего используется способ оценки, предложенный в 1948 году основоположником теории информации Клодом Шенноном. Как было отмечено, информация уничтожает неопределенность. Степень неопределенности принято характеризовать с помощью понятия "вероятность".
Вероятность - величина, которая может принимать значения в диапазоне от 0 до 1. Она может рассматриваться как мера возможности наступления какого-либо события, которое может иметь место в одних случаях и не иметь места в других.
Если событие никогда не может произойти, его вероятность считается равной 0. Так, вероятность события "Завтра будет 5 августа 1832 года" равна нулю в любой день, кроме 4 августа 1832 года. Если событие происходит всегда, его вероятность равна 1.
Чем больше вероятность события, тем выше уверенность в том, что оно произойдет, и тем меньше информации содержит сообщение об этом событии. Когда же вероятность события мала, сообщение о том, что оно случилось, очень информативно.
Количество информации I, характеризующей состояние, в котором пребывает объект, можно определить, используя формулу Шеннона:
I = -(p[1]*log(p[1])+p[2]*log(p[2])+...+p[n]*log(p[n])) ,
Здесь
N - число возможных состояний;
P[1],...p[n] - вероятности отдельных состояний;
Log( ) - функция логарифма при основании 2.
Знак минус перед суммой позволяет получить положительное значение для I, поскольку значение log(p[i]) всегда не положительно.
Единица информации называется битом. Термин "бит" предложен как аббревиатура от английского словосочетания "Binary digiT", которое переводится как "двоичная цифра".
1 бит информации - количество информации, посредством которого выделяется одно из двух равновероятных состояний объекта.
Рассмотрим пример
Пусть имеется два объекта. С каждого из них в определенные мо-менты времени диспетчеру передается одно из двух сообщений: включен или выключен объект. Диспетчеру известны типы сообщений, но неизвестно, когда и какое сообщение поступит.
Пусть также, объект А работает почти без перерыва, т. е. вероятность того, что он включен, очень велика (например, р_А_вкл=0,99 и р_А_выкл=0,01, а объект Б работает иначе и для него р_Б_вкл=р_Б_выкл=0,5).
Тогда, если диспетчер получает сообщение том, что А включен, он получает очень мало информации. С объектом Б дела обстоят иначе.
Подсчитаем для этого примера среднее количество информации для указанных объектов, которое получает диспетчер:
- * Объект А : I = -(0,99*log(0,99)+0,01*log(0,01))=0,0808. * Объект Б : I = -(0,50*log(0,50)+0,50*log(0,50))=1.
Итак, каждое сообщение объекта Б несет 1 бит информации.
Формула Шеннона, в принципе, может быть использована и для оценки количества информации в непрерывных величинах.
При оценке количества дискретной информации часто используется также формула Хартли:
I = log(n) ,
Где n - число возможных равновероятных состояний;
log() - функция логарифма при основании 2.
Формула Хартли применяется в случае, когда вероятности состоя-ний, в которых может находиться объект, одинаковые.
Приведем пример. Пусть объект может находиться в одном из восьми равновероятных состояний. Тогда количество информации, поступающей в сообщении о том, в каком именно он находится, будет равно
I = log(8) = 3 [бита].
Оценим количество информации в тексте.
Точно ответить на вопрос, какое количество информации содержит 1 символ в слове или тексте, достаточно сложное дело. Оно требует исследования вопроса о частотах использования символов и всякого рода сочетаний символов. Эта задача решается криптографами. Мы же упростим задачу. Допустим, что текст строится на основе 64 символов, и частота появления каждого из них одинакова, т. е. все символы равновероятны.
Тогда количество информации в одном символе будет равно
I = log(64) = 6 [бит].
Из двух символов данного алфавита может быть образовано n=64*64=4096 различных сочетаний. Следовательно, два символа несут в себе I=log(4096)=12 бит информации.
Оценим количество информации, содержащейся в числах.
Если предположить, что цифры 0, 1, ..., 9 используются одинаково часто (равновероятны), то
- * одна цифра содержит I = log(10) = 3,32 [бит]; * четырехзначное число из диапазона [0..9999], если все его значения равновероятны, содержит
I = log(10000)=13,28 [бит];
* а восьмиразрядное число - I=log(100000000)=26,56 [бита].
Итак, количество информации в сообщении зависит от числа разнообразий, присущих источнику информации и их вероятностей.
Повторим основные положения, рассмотренные выше.
- 1. Информация - отражение предметного или воображаемого мира с помощью знаков и сигналов. 2. Информация может существовать либо в непрерывной, либо в дискретной формах. 3. Информация о чем-либо может быть представлена многими способами. В качестве носителей информации могут использоваться разнообразные физические величины такой же природы (для непрерывной информации - непрерывные физические величины, для дискретной - дискретные). 4. Физический процесс является сигналом, если какая-либо присущая ему физическая величина несет в себе информацию. 5. Чтобы представить дискретную информацию, надо перечислить (поименовать) все разнообразия, присущие объекту или явлению (цвета радуги, виды фигур и др.).
Дискретная информация представляется:
- * числами (как цифровая), * символами некоторого алфавита (символьная), * графическими схемами и чертежами (графическая). 6. Дискретная информация может использоваться и для представления непрерывной. Удобной формой дискретной информации является символьная. 7. Разные алфавиты обладают одинаковой "изобразительной силой": с помощью одного алфавита можно представить всю информацию, которую удавалось представить на основе другого алфавита. А значит, информацию обо всем окружающем человека мире можно представить в дискретной форме с использованием алфавита, состоящего только из двух символов (т. е. с использованием двоичной цифровой формы). 8. Форма представления информации, отличная от естественной, общепринятой, называется кодом.
Широко известны такие коды, как почтовые индексы, нотная за-пись музыки, телеграфный код Морзе, цифровая запись программ для ЭВМ (программирование в кодах), помехозащищенные коды в системах передачи данных.
9. Информация уничтожает неопределенность знаний об окружающем мире. Степень неопределенности принято характеризовать с помощью понятия "вероятность".
Вероятность - величина, которая может принимать значения в диапазоне [0,1] и которая может рассматриваться как мера возможности наступления какого-либо события. Если событие никогда не может произойти, его вероятность считается равной 0, а если событие происходит всегда, его вероятность равна 1.
Для оценки количества информации в технике чаще всего используется способ, предложенный Клодом Шенноном. Для случая, когда все состояния, в которых может находиться объект, равновероятны, применяют формулу Хартли. Одна единица информации называется битом.
Похожие статьи
-
Что объединяет непрерывные и дискретные величины? - Информация и способы ее получения
В качестве простого примера, иллюстрирующего наши рассуждения, рассмотрим пружинные весы. Масса тела, измеряемая на них, - величина непрерывная по своей...
-
Количественная мера информации - Феномен информации
Что такое величина или количество информации Каждый предмет или явление человек пытается охарактеризовать, для сравнения с подобными, его величиной. Не...
-
Кодирование текстовой информации - Кодирование информации в компьютере
В настоящее время большая часть пользователей при помощи компьютера обрабатывает текстовую информацию, которая состоит из символов: букв, цифр, знаков...
-
Описание переменных, Способы ввода/вывода информации - Система поиска автобусных маршрутов
В программе описана и используется одна глобальная переменная Town: TTown. Данная переменная содержит список остановок и автобусных маршрутов. Остальные...
-
Выводы - Системная теория информации и семантическая информационная модель
Интервальные оценки сводят анализ чисел к анализу фактов и позволяют обрабатывать количественные величины как нечисловые данные. Это ограничивает...
-
Кодирование, Кодирование текстовой информации - Экономическая информатика
Кодирование текстовой информации Кодирование информации - процесс преобразования сигнала из формы, удобной для непосредственного использования...
-
Базовые понятия информации - Компьютерные и сетевые технологии
Информация компьютер математический сеть Мы начинаем первое знакомство с величайшим достижением нашей цивилизации, стоящем в одном ряду с изобретением...
-
Перед началом непосредственного использования программы "Сервер опроса", следует создать рабочую конфигурацию сервера с помощью программы - конфигуратора...
-
Растровое изображение. - Кодирование информации в компьютере
При помощи увеличительного стекла можно увидеть, что черно-белое графическое изображение, например из газеты, состоит из мельчайших точек, составляющих...
-
Неавтоматизированные методы - Распространение новостной информации
Нетнография Интернет - это глобальная сеть данных, которые используются, создаются, обмениваются миллионами людьми ежедневно. Люди общаются в социальных...
-
Кодирование графической информации - Кодирование информации в компьютере
В середине 50-х годов для больших ЭВМ, которые применялись в научных и военных исследованиях, впервые в графическом виде было реализовано представление...
-
Сжатие данных можно разделить на два основных типа: 1) Сжатие без потерь или полностью обратимое; 2) Сжатие с потерями, когда несущественная часть данных...
-
Способы обработки данных - Автоматизированные системы обработки экономической информации
Различаются следующие способы обработки данных: централизованная, децентрализованная, распределенная и интегрированная. Централизованная предполагает...
-
После ввода пользователем исходных данных компьютер должен их обработать в соответствии с заданной программой и вывести результаты в форме, удобной для...
-
Преобразование коэффициентов Основным набором передаваемых параметров в вокодере с линейным предсказанием являются М коэффициентов фильтра с...
-
ВВЕДЕНИЕ - Анализ средств защиты информации в ЛВС
Вопрос защиты информации поднимается уже с тех пор, как только люди научились письменной грамоте. Всегда существовала информация, которую не должны знать...
-
Защита корпоративной информации - Защита информации
Однако при решении этой проблемы предприятия часто идут на поводу у компаний-подрядчиков, продвигающих один или несколько продуктов, решающих, как...
-
Кодирование по методу четности / нечетности - Кодирование информации
Для контроля правильности передачи информации, а также как средство шифрования информации используются различные коды. Коды, использующие для передачи...
-
Онлайн исследования в социологии: новые методы анализа данных - Распространение новостной информации
На сегодняшний день анализ социальных сетей и медиа, Интернет-сообществ, пользователей в целом используется в основном в маркетинге. Компания может...
-
Эпоха Больших данных: начало перехода к новому понимаю данных - Распространение новостной информации
Современные технологии позволили перейти к качественно новому пониманию данных, информации и возможностей ее анализа. В виртуальном мире ежесекундно...
-
Хранение, кодирование и пpеобpазование данных - Единицы измерения информации в памяти ПК
Хранение информации в памяти ЭВМ - одна из основных функций компьютера. Любая информация хранится с использованием особой символьной формы, которая...
-
Социальные сети: структура коммуникации online vs. offline - Распространение новостной информации
Одна из простейших форм передачи информации - это коммуникация. В то же время это многогранное понятие, включающее в себя различные особенности и...
-
Множество D с двумя заданными на нем операциями (плюс) и (умножение) называется диоидом, если выполнены следующие аксиомы: § Ассоциативность. §...
-
Кодирование информации в компьютере - Кодирование информации в компьютере
Современный компьютер может обрабатывать числовую, текстовую, графическую, звуковую и видео информацию. Все эти виды информации в компьютере представлены...
-
Мобильные приложения - это программные приложения, предназначенные для работы на смартфонах, планшетах и других мобильных устройствах. Цель мобильного...
-
СУБД MS Access - База данных, хранящая в себе информацию о командах NBA
Системы управления базами данных (СУБД) - это программные средства, с помощью которых можно создавать базы данных, наполнять их и работать с ними. В мире...
-
Способ описания синтаксических конструкций - Функциональные модели универсального нейрокомпьютера
Для описания синтаксиса языков описаний компонентов использ Уется расширенная Бэкусова нормальная форма. Описание синтаксиса языка с помощью БНФ состоит...
-
Внемашинное ИО - Автоматизированные системы обработки экономической информации
Внемашинное ИО - информация, которая воспринимается человеком без каких-либо технических средств (документы). Классификация - система распределения...
-
Наиболее распространенная форма - ЭВМ. Раньше чаще использовались вычислительные центры (ВЦ). Вычислительный центр - организуется и специализируется на...
-
Коммуникации ресторанного бренда через инструменты Интернет маркетинга Рестораны являются неотъемлемой частью любой культуры. Везде можно найти место,...
-
Файл - это набор любых данных одного типа, который хранится на диске отдельно от прочих. Например, музыкальный файл, файл изображения или текстовый файл,...
-
В боковом меню предоставлена контактная информация. Адреса, телефоны и время работы приемной ФСИН. РиР Рис.16. Контактная информация и время работы...
-
Изучить способы вывода на экран таблицы значений. - Циклические алгоритмы
Одномерные массивы в СИ Массив - некие упорядоченные данные одного типа. Смысл этой всей упорядоченности состоит в том что доступ к элементам происходит...
-
Дисплей (монитор). Позволяет вывести на экран алфавитно-цифровую или графическую информацию в удобном для чтения и контроля пользователем виде. В...
-
Метод парольной защиты - Защита информации
Законность запроса пользователя определяется по паролю, представляющему собой, как правило, строку знаков. Метод паролей считается достаточно слабым, так...
-
В Internet есть компьютеры которые позволяют вашему компьютеру действовать как терминал. Этот процесс называется удаленным входом (Telnetting). Tермин...
-
Понятие процесса архивации файлов - Архивация информации и программы-архиваторы
Одним из наиболее широко распространенных видов сервисных программ являются программы-архиваторы, предназначенные для архивации, упаковки файлов путем...
-
Кейс 1. Реальная новость: "Министр обороны: Италия может направить миротворцев на Украину" Описательная статистика Общее количество упоминаний по всем...
-
В зависимости от целей исследования уже на этапе очищения базы от нерелевантных сообщений исследователь может провести процедуру тегирования...
-
Система мониторинга социальных сетей предоставляет исследователю возможность собрать интересующие его упоминания в социальных сетях по какой-либо...
Как представлять непрерывную информацию?, Выводы - Информация и способы ее получения