Понятие информации. Способы измерения количества информации. Представление информации в ЭВМ, кодирование — КиберПедия 

Своеобразие русской архитектуры: Основной материал – дерево – быстрота постройки, но недолговечность и необходимость деления...

Механическое удерживание земляных масс: Механическое удерживание земляных масс на склоне обеспечивают контрфорсными сооружениями различных конструкций...

Понятие информации. Способы измерения количества информации. Представление информации в ЭВМ, кодирование

2017-06-29 678
Понятие информации. Способы измерения количества информации. Представление информации в ЭВМ, кодирование 0.00 из 5.00 0 оценок
Заказать работу

 

Несмотря на то, что понятие информации широко используется и в науке, и в повседневной жизни, строгого научного определения до последнего времени не существует. Разные научные дисциплины определяют это понятие по-разному.

Термин «информация» происходит от латинского «informatio», что означает разъяснение, осведомление, изложение. С позиции материалистической философии информация есть отражение реального мира с помощью сигналов и знаков, или отраженное многообразие, которое один объект содержит о другом в процессе их взаимодействия. Здесь подчеркивается мысль о том, что информация существует независимо от того, воспринимается она или нет. Однако при этом отмечается, что информация проявляется только при взаимодействии объектов (процессов).

В широком смысле информация – это общенаучное понятие, включающее в себя обмен сведениями между людьми, обмен сигналами между живой и неживой природой, людьми и устройствами.

В теории информации «информация» – это сведения об объекте и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний. Таким образом, информацию рассматривают как концептуально связанные между собой сведения, понятия, изменяющие наши представления о явлении или объекте окружающего мира. Американский ученый Клод Шеннон, заложивший основы теории информации, рассматривал информацию как снятую неопределенность, неполноту знаний о чем-то.

В информатике понятие информации определяется как абстрактное содержание (содержательное значение, семантика) какого-либо высказывания, указания, описания, сообщения или известия.

С практической точки зрения информация всегда представляется в виде сообщения – последовательности символов. Информация передается посредством конкретного сообщения. Сообщение – это набор символов, смысл которых надо знать. Упорядоченный набор знаков, используемых для записи сообщений, называется алфавитом. При этом делают четкое различие между информацией (абстрактным содержанием) и ее представлением (внешней формой). Разделение понятий формы представления и абстрактного информационного содержания какого-либо сообщения является фундаментальным для информатики.

Сообщение – это форма представления информации в виде речи, текста, изображения, цифровых данных, графиков, таблиц и т.д. Сообщения могут иметь различную форму представления: звуковое, графическое, последовательность символов, письмо, жесты. Для ЭВМ сообщением является звук, графика, последовательность текстовых символов. Соответствие между сообщением и информацией не является однозначным. Очевидно, что одна и та же информация может быть представлена разными сообщениями, например, записана на разных языках. Одно и то же сообщение может передавать различную информацию. Например, читатели из одной и той же статьи черпают разную информацию, соответствующую кругу их интересов. Таким образом, информация может пониматься как результат интерпретации сообщения. Поэтому чтобы получить информацию из сообщения, необходимо знать определенное правило интерпретации сообщения, которое представляет собой результат договоренности между отправителем и получателем сообщения или предписанное им. Иногда правило интерпретации известно лишь ограниченному кругу лиц, например, специальные языки, сленг, жаргон. Примером связи между сообщением и информацией является криптография, где посторонний не должен суметь извлечь информацию из зашифрованного передаваемого сообщения.

Установление отношений между информацией, содержащейся в сообщении, и окружающим миром называют пониманием. Очевидно, что понимание является индивидуальным и субъективным процессом. Если обработка информации автоматизирована посредством каких-либо технических устройств, то имеет смысл говорить о сообщении и количестве символов в нем, а не о содержании сообщения.

Выделяют следующие характеристики информации:

  • представление или изображение (N, внешняя форма);
  • значение (I, собственно «абстрактная» информация, смысл сообщения);
  • отношение к реальному миру (связь абстрактной информации с действительностью).

Решающим для связи между сообщением N и информацией I является правило интерпретации (например, результат договоренности). Таким образом:

1. Информация представляется с помощью символов (знаков).

2. Информация – это смысл сообщения.

3. Смысл можно понять, имея правило интерпретации.

 

С понятием информации тесно связано понятие «данные». Данные – это информация любой природы, представленная в формализованном виде, зафиксированная каким-либо образом, удобным для хранения, обработки и передачи с помощью технических средств. Информация может быть зафиксирована: в книгах, на магнитной ленте, на диске, в мозге человека. Физическая среда, в которой зафиксирована информация, называется носителем информации. Любые данные на носителе информации можно представить в виде последовательности символов. При работе с информацией всегда есть ее источник и потребитель (получатель). Сообщение от источника к получателю передается посредством какой-либо среды – канала связи (например, воздух, в котором распространяются звуковые волны). Пути и процессы, обеспечивающие передачу сообщений от источника информации к ее потребителю, называются информационными коммуникациями. Данные превращаются в информацию, если появляется возможность использовать эти данные для уменьшения неопределенности о чем-либо. Однако данные не тождественны информации. В этом случае необходимо знание метода обработки данных для решения конкретной задачи, и тогда данные могут стать информацией.

 

Эффективность использования информации определяется рядом ее свойств:

- репрезентативность – связана с правильностью отбора информации (обоснованностью отбора);

- содержательность – отражает семантическую емкость (меньше слов, больше информации);

- полнота – достаточность информации для принятия правильно решения (без избыточности);

- доступность – обеспечивается выполнение соответствующих процедур ее получения и преобразования;

- актуальность – определяется степенью сохранения ценности информации для управления в момент ее использования;

- своевременность информации означает ее поступление не позже заранее назначенного момента времени, согласованного с временем решения поставленной задачи;

- точность – степень близости к информации о состоянии реального объекта;

- достоверность – определяется свойством информации отражать реально существующие объекты с необходимой точностью;

- адекватность – это степень соответствия реальному объективному состоянию дел. Неадекватная информация образуется, если данные неполные и недостоверные, а так же если используются неадекватные методы (например, плохой перевод).

Меры информации

Информацию можно рассматривать с нескольких сторон: синтаксической, семантической и прагматической. Информацию, рассматриваемую с синтаксических позиций, обычно называют данными, так как при этом не имеет значения смысловая сторона. На синтаксическом уровне учитываются формально-структурные характеристики информации. Семантический аспект предполагает учет смыслового содержания закодированных сообщений для формирования понятий и представлений. Прагматическая сторона информации отражает отношение информации и ее потребителя и характеризуется полезностью (ценностью) информации при достижении поставленной пользователем цели. ЭВМ оперирует с абстрактной информацией, поэтому интерес представляет синтаксический аспект информации. В качестве меры информации используют объем данных и количество информации.

Объем данных Vg измеряется количеством символов, разрядов в сообщении. В различных системах счисления один разряд имеет различный вес и, соответственно, меняется единица измерения данных:

· в десятичной системе счисления – дит;

· в двоичной системе счисления – бит (англ. bit – binary digit – двоичная цифра).

В качестве единицы информации Клод Шеннон предложил принять один бит. Бит – наименьшая единица измерения информации. На практике чаще применяется более крупная единица – байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256 = 28). Широко используются также более крупные производные единицы информации:

1 Килобайт (Кбайт) = 1024 байт = 210 байт;

1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт;

1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт;

1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт;

1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

 

Получение информации всегда связано с уменьшением разнообразия или неопределенности. Поэтому для определения количества информации необходимо установить количественную меру снятой неопределенности. Американский инженер Р. Хартли в 1928 году процесс получения информации рассматривал как выбор одного сообщения из конечного наперед заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N. Формула Хартли имеет вид:

I = log2N.

Эта формула удовлетворяет следующим естественным условиям:

· при N = 1 (нет неопределенности) количество информации I = 0;

· с увеличением возможностей выбора, то есть числа возможных сообщений N, мера информации I монотонно возрастает.

 

Исходя из этого понятия бит – наименьшая единица измерения количества информации, равная количеству информации, содержащемуся в опыте, имеющем два равновероятных исхода.

 

Американский ученый Клод Шеннон предложил в 1948г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе событий. Формула Шеннона имеет вид:

I = – = – (p1log2p1 + p2log2p2 +... + pNlog2pN),

где pi – вероятность того, что получено именно i-е сообщение в наборе из N сообщений. Меру неопределенности выбора сообщения из набора в N сообщений называют энтропией.

Если события равновероятны, то вероятности p1,..., pN равны между собой и каждая из них равна . Подставив значение p в формулу Шеннона, получим:

I = – = .

Таким образом, если сообщения независимы и равновероятны, формула Шеннона преобразуется в формулу Хартли. На практике количество информации всегда меньше или равно объему данных.

 


Поделиться с друзьями:

Кормораздатчик мобильный электрифицированный: схема и процесс работы устройства...

История развития хранилищ для нефти: Первые склады нефти появились в XVII веке. Они представляли собой землянные ямы-амбара глубиной 4…5 м...

Таксономические единицы (категории) растений: Каждая система классификации состоит из определённых соподчиненных друг другу...

Индивидуальные и групповые автопоилки: для животных. Схемы и конструкции...



© cyberpedia.su 2017-2024 - Не является автором материалов. Исключительное право сохранено за автором текста.
Если вы не хотите, чтобы данный материал был у нас на сайте, перейдите по ссылке: Нарушение авторских прав. Мы поможем в написании вашей работы!

0.026 с.