Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ИТ И ИНФОРМАТИКА 11 августа 2016.docx
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
3.46 Mб
Скачать

1.2 Методы получения информации

Информацию мы получаем различными способами: при разговоре между людьми, через средства массовой информации и различные средства коммуникации – радио, телефон, телевидение, компьютер. Откуда появляется новая информация? Ежедневный человеческий опыт является важнейшим методом получения информации.

В прошлом этот метод был основным и единственным. Множество замечательных открытий было поучено опытным путем, в процессе накопления опыта и вывода определенных умозаключений.

Как альтернатива накоплению опыта существовал и существует метод проб и ошибок т. е. эвристический метод. В современной науке эвристический метод так же имеет место, но он недостаточно эффективен.

Научный подход характеризуется тем, что при его применении производится не беспорядочный перебор всех возможных вариантов, а целенаправленный поиск. В результате применения целенаправленного поиска люди создали новые материалы и процессы, неизвестные в природе.

1.3. Свойства информации

Любая информация должна обладать рядом свойств: достоверностью, полнотой, актуальностью, ясностью и ценностью

Достоверность – истинное обьективное отражение действительности. Каждый человек воспринимает окружающую действительность субьективно, имея сой собственный, отличный от других свой взгляд и мнение. Смысл достоверности заключается в определении, насколько данная информация соответствует истинному положению дел. Недостоверная информация повлечет за собой неправильное понимание ситуациии принятие неверных решений.

Полнота – достаточной количество данных для понимания ситуации и принятия решений.

Актуальность – соответствие информации данной ситуации.

Ясность – выражение информации в таком виде, который был бы понятен ее получателю.

Ценность – нужна ли информация для решения данной проблемы. Т.е. одна и та же информация может быть очень важной в одной ситуации и быть абсолютно бесполезной в другой ситуации.

1.4. Измерение информации

Сколько информации содержится, к примеру, в тексте романа «Война и мир», во фресках Рафаэля или в генетическом коде человека? Возможно ли измерить количество информации? В научном понятие «информация» связывается с вероятностью осуществления того или иного события.

Вероятность это числовая характеристика степени возможности наступления события, изменяемая от 0 до1.Вероятность достоверного события (которое обязательно должно произойти) равна 1, невозможного события (не произойдет никогда) – 0. Вероятность случайного события (которое может произойти, а может не произойти) лежит в интервале (0,1). Американский ученый К. Шеннон предложил в 1948 г. формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Формула Шеннона:

I = Log n

Анализ формулы показывает, что чем выше вероятность события, тем меньшее количество информации возникает после его осуществления, и наоборот.

     Рассмотрим, как можно подсчитать количество информации в сообщении, используя содержательный подход.      Пусть в некотором сообщении содержатся сведения о том, что произошло одно из N равновероятных событий. Тогда количество информации х, заключенное в этом сообщении, и число событий N связаны формулой: 2x = N. Решение такого уравнения с неизвестной х имеет вид: x=log2N. То есть именно такое количество информации необходимо для устранения неопределенности из N равнозначных вариантов. Эта формула носит название формулы Хартли. Получена она в 1928 г. американским инженером Р. Хартли.

Если вероятность равна 1, количество информации равно 0. Если вероятность свершения или несвершениякакого- либо событияодинакова, т. е. равна ½, то количество информации, которое несет с собой это событие, равно 1.

Это – единица измерения информации. Она получила наименование бит.

Поэтому бит можно также определить как количество информации, которое содержит один разряд двоичного числа. Бит в теории информации – количество информации, необходимое для различения двух равновероятных сообщений. Количество информации, равное 8 битам, называется байтом.

Широко используются также еще более крупные производные единицы измерения:

  • 1 Килобайт = 1 024 байт;

  • 1 Мегабайт = 1 024 Кбайт;

  • 1 Гигабайт = 1 024Мбайт;

  • 1 Терабайт = 1 024 Гбайт;

  • 1 Петабайт = 1 024 Тбайт.