- •§1. Носители информации
- •§2. Основные понятия информатики
- •§3. Моделирование и формализация
- •§4. Основные принципы формализации
- •§5. Меры информации
- •§6. Объем информации V (объемный подход).
- •§7. Количество информации / (энтропийный/вероятностный подход)
- •Какова же связь энтропии с информацией?
- •§7. Кодирование и шифрование информации
- •7.1. Кодирование графической информации
- •Цветовые модели rgb и cmyk
- •Другие цветовые модели
- •7.2. Кодирование звука
- •Цифро-аналоговое и аналого-цифровое преобразование звуковой информации
- •§7. Общие понятия о позиционных и непозиционных системах счисления
- •Непозиционные системы счисления
- •1) Число 1988.
- •Позиционные системы счисления
- •Первые позиционные системы счисления
- •Двенадцатеричная система счисления
- •Шестидесятеричная система счисления
- •Какие позиционные системы счисления используются сейчас?
- •Десятичная система счисления
- •Двоичная система счисления
- •Алфавит десятичной, двоичной, восьмеричной и шестнадцатеричной систем счисления
- •Правила перевода
- •Восьмеричная и шестнадцатеричная системы счисления
- •Взаимное преобразование двоичных, восьмеричных и шестнадцатеричных чисел
- •§9. История развития вычислительной техники
- •§10. Архитектура эвм
- •Эвм, построенные по принципу Фон Неймана
- •Аналитическая машина Беббиджа
- •Основополагающие принципы логического устройства эвм (Фон Нейман)
- •§11. Внешние устройства эвм
- •§12. Внутренние устройства эвм
- •§13. Программное обеспечение эвм
- •13.1. Операционные системы
- •13.2. Понятие файловой системы
- •13.3. Операционная система ms dos для ibm-совместимых персональных компьютеров
- •§14. Инструментальные программные средства общего назначения
- •§15. Инструментальные программные средства специального назначения
- •§16. Программные средства профессионального уровня
- •§17. Назначение и место систем Maple
- •Maple в Интернете
- •Понятие о функциях и операторах.
- •§18. Алгоритмы и способы их описания Понятие алгоритма
- •Способы описания алгоритмов
- •Структурные схемы алгоритмов
- •18.1. Этапы подготовки и решения задач на эвм
- •§19. Системы программирования
- •§20. История языков программирования
- •§21. Паскаль как язык структурно-ориентированного программирования
- •21.1. Процедуры и функции в Pascal
- •21.2. Внешние библиотеки в Pascal
- •21.3. Модули
- •21.4. Работа с файлами
§2. Основные понятия информатики
Информация
Как видно, базовым понятием информатики является информация. Любая деятельность человека представляет собой процесс сбора и переработки информации, принятия на ее основе решений и их выполнения.
Информация содержится в человеческой речи, текстах книг, журналов, газет, сообщениях радио и телевидения, показаниях приборов и т.д. Человек воспринимает информацию с помощью органов чувств. Хранит и перерабатывает ее с помощью мозга и центральной нервной системы. Передаваемая информация обычно касается каких–то предметов или нас самих и связана с событиями, происходящими в окружающем нас мире.
Понятие «информация» – есть первичное и неопределяемое понятие (как, например «точка» в геометрии, «множество» в математике).
Сам термин «информация» происходит от латинского слова informatio – разъяснение, пояснение.
Особенностью понятия «информация» является его универсальность – оно используется во всех без исключения сферах человеческой деятельности: в философии, естественных и гуманитарных науках, в биологии, медицине, в психологии человека и животных, в социологии, искусстве, в технике и экономике и, конечно, в повседневной жизни.
Рассмотрим ряд других понятий, связанных с информацией.
Информация – категория нематериальная, следовательно, она должна быть связана с какой материальной основой, без этого она просто не сможет существовать.
Материальный объект или среду, которые служат для представления или передачи информации, будем называть ее материальным носителем (бумага, диск, воздух и т.п.).
При этом хранение информации связана с фиксацией состояния носителя (например, уже напечатанный текст на бумаге), а распространение информации – с процессом, который протекает в носителе. Но только с нестационарным процессом, то есть характеристики которого меняются. (стационарный информацию не переносит – лампа просто горит и все, а мигает – уже азбука Морзе). И при этом информация связывается не с существованием процесса (просто горит лампа), а именно с изменением какой–либо его характеристики.
Изменение характеристики носителя, которое используется для представления информации, называется сигналом, а значение этой характеристики, отнесенное к некоторой шкале измерений, называется параметром сигнала.
Примеры:
Способ передачи |
Процесс |
Параметры сигнала |
Звук |
Звуковые волны |
Высота и громкость звука |
Изображение |
Световые волны |
Частота и амплитуда световых волн |
Одиночный сигнал не может содержать много информации. Нужно их много.
Последовательность сигналов называется сообщением.
Сообщение, таким образом, служит переносчиком информации, а информация является содержанием сообщения.
Выше уже говорилось о том, что в отличие от материи и энергии информация может создаваться и исчезать.
Изменение с течением времени содержания информации или представляющего его сообщения – это информационный процесс.
Основные виды информационных процессов:
1. создание новой информации
2. преобразование информации
3. уничтожение информации
4. передача информации
Понятие «информация» обычно предполагает наличие двух объектов – источника и приемника информации. Информация передается от источника к приемнику в материально-энергетической форме в форме сигналов, распространяющихся в определенной среде.
Источник информации – это субъект или объект, порождающий информацию и представляющий ее в виде сообщения.
Получатель информации – это субъект или объект, принимающий сообщение и способный правильно его интерпретировать.
Получатель информации не равен получателю сообщения.
Итак, информация передается в форме сообщений от некоторого источника информации к получателю посредством системы связи между ними.
Совокупность технических средств, используемых для передачи сообщений от источника к получателю, называется системой связи.
Канал связи – совокупность технических устройств, обеспечивающих передачу сигнала от передатчика к приемнику.
Кодирующее устройство предназначено для кодирования информации (преобразования исходного сообщения от источника к виду, удобному для передачи информации).
Декодирующее устройство предназначено для преобразования полученного сообщения в исходное.
Выше говорилось о том, что передача информации производится с помощью сигналов. Их различают два вида:
Сигнал называется непрерывным (или аналоговым), если его параметр может принимать любое значение в пределах некоторого интервала (речь, музыка).
Сигнал называется дискретным, если его параметр может принимать конечное число значений в пределах некоторого интервала.
В этом случае говорят соответственно дискретная и непрерывная информация.
Следует различать непрерывность или дискретность сигнала по уровню и во времени.
Пример дискретного сообщения – процесс чтения книги, информация в которой представлена текстом, то есть дискретной последовательностью отдельных букв. Примеров непрерывной информации служит человеческая речь, передаваемая модулированной звуковой волной, параметром сигнала в этом случае является давление, создаваемое этой волной в точке нахождения приемника – человеческого уха.
непрерывный
по уровню и во времени сигнал х
дискретный
по уровню и непрерывный по времени
сигнал х
непрерывный
по уровню и дискретный по времени сигнал
х
дискретный
по уровню и во времени х
Принципиальное различие: дискретные сигналы можно обозначить, то есть каждому из значений (их конечное множество) можно приписать некоторый знак.
Знак – это элемент некоторого конечного множества отличных друг от друга сущностей.
Набор знаков, в котором установлен порядок их следования, называется алфавитом. Пример – десятичные цифры от 0 до 9. Ими можно записать любое число в системах от двоичной до десятичной.
Преобразование сообщений
Поскольку имеется два типа преобразований, то возможно четыре варианта преобразований:
Непр1
(н1)
Непр2 (н2)
Дискр1(д1)
Дискр2(д2)
Непр1
(д1)
Дискр2(д2)
Дискр1(д1) Непр2(д2)
Н1Н2
Примеры: а) микрофон: звук преобразовывается в электрические сигналы; б) телекамера: изображение и звук – в электрические сигналы
При таком преобразовании из-за помех, образуемых самим техническим устройством, всегда происходит потеря информации.
Д1Д2
Это преобразование связано с переходом при представлении сигналов к другому алфавиту. Эта операция называется перекодировка. Шифровка текста, «пляшущие человечки», русские слова английскими буквами и т.п.
НД
С математической точки зрения переход от аналоговой формы сигнала к дискретной означает замену описывающей его непрерывной функции Z(t) на некотором временном интервале [t1,t2] конечным множеством {zi,ti}, i=0,..n, где n – количество точек разбиения временного интервала.
Это преобразование называется дискретизацией непрерывного сигнала и осуществляется посредством следующих процедур:
а) развертки по времени;
б) квантования по величине.
Развертка по времени осуществляется за счет того, что наблюдение за Z(t) проводится не непрерывно, а только в определенные моменты времени с интервалом:
Квантование
по величине – это отображение значения
Z(t)
в конечное множество чисел, кратных так
называемому шагу квантования
.
Практически совместное выполнение этих операций равносильно:
1)
нанесению масштабной сетки на график
Z(t)
в соответствии с величинами
и
2) выбора в качестве пар значений {zi,ti} узлов сетки, расположенных наиболее близко к z(ti). Полученное множество называется дискретным представлением исходной непрерывной функции.
Очевидно, что чем меньше n, тем меньше узлов, но и меньше точность. То есть может происходить потеря информации. Казалось бы, что увеличивая n можно неограниченно повысить точность, но полностью избежать потерь это все-таки не позволит, так как n – конечная величина. Как же избежать потерь информации. Ответом на этот вопрос является следующая теорема, которую мы примем без доказательств:
-
Теорема отсчетов:
(Котельникова, 1933)
Непрерывный сигнал можно полностью отобразить и точно воссоздать по последовательности измерений или отсчетов величины этого сигнала через одинаковые интервалы времени, меньшие или равные половине периода максимальной частоты, имеющейся в сигнале.
Замечание:
это для таких линий связи, где имеются только колебательные или волновые процессы. Но поскольку работа большинства практических устройств основана именно на этих процессах, то это не является ограничением.
Таким образом, с выбором все ясно. А как выбирают шаг квантования? определяется чувствительностью приемного устройства. Например, если глаз человека способен воспринимать 16 миллионов цветов, то при квантовании просто нет смысла делать большее число градаций.
ДН
Теорема отсчетов дает ответ и на вопрос о возможности проведения такого преобразования без потери информации.
ВЫВОД: во всех видах преобразования сообщений, где имеется Д–сообщения возможно преобразование без потери информации.
Другие достоинства дискретной формы информации:
1) высокая помехоустойчивость;
2) простота и надежность устройств по обработке информации;
3) точность обработки информации;
4) универсальность устройств.
Последнее свойство является следствием того обстоятельства, что любые дискретные сообщения, составленные в совершенно различных алфавитах можно привести к некоторому единому алфавиту, который принять за БАЗОВЫЙ (за счет ДД). А далее можно в этом базовом алфавите представлять всю дискретную информацию. Следовательно, устройство, работающее с информацией в этом базовом алфавите универсально, так как может быть использовано для любой дискретной информации. Такой базовый алфавит – двоичный, а устройство – компьютер.
Глобальный вывод: Везде далее можем говорить только о дискретной информации, а для ее представления использовать фиксированный алфавит. При этом не надо рассматривать физические особенности передачи и представления, то есть характер процессов и виды сигналов. Полученные результаты будут справедливы для любой дискретной информации независимо от реализации сообщения, с которым она связана. С этого момента и начинается наука информатика.
Подводя итог относительно понятия информация, можно сказать, что информацию нельзя считать лишь техническим термином, это фундаментальная философская категория, которой присущи такие свойства как запоминаемость, передаваемость, преобразуемость, воспроизводимость, стираемость. Можно дать следующее определение:
Информация – специфический атрибут реального мира, представляющий собой его объективное отражение в виде совокупности сигналов и проявляющийся при взаимодействии с «приемником» информации, позволяющим выделять, регистрировать эти сигналы из окружающего мира и по тому или иному критерию их идентифицировать. Таким образом:
1. информация объективна, так как это свойства материи – отражение;
2. информация проявляется в виде сигналов и лишь при взаимодействии объектов;
3. одна и та же информация различными получателями может быть интерпретирована по-разному.
Информация имеет определенные функции и этапы обращения в обществе. Основными из них являются:
1. познавательная, цель которой – получение новой информации. Функция реализуется в основном через такие этапы обращения информации, как:
– ее синтез (производство),
– представление,
– хранение (передача во времени),
– восприятие (потребление);
2. коммуникативная – функция общения людей, реализуемая через такие этапы обращения информации, как:
– передача (в пространстве),
– распределение;
3. управленческая, цель которой – формирование целесообразного поведения управляемой системы, получающей информацию. Эта функция информации неразрывно связана с познавательной и коммуникативной и реализуется через все основные этапы обращения, включая обработку.
Без информации не может существовать жизнь в любой форме и не могут функционировать созданные человеком любые информационные системы. Без нее биологические и технические системы представляют груду химических элементов. Общение, коммуникации, обмен информацией присущи всем живым существам, но в особой степени – человеку. Будучи аккумулированной и обработанной с определенных позиций, информация дает новые сведения, приводит к новому знанию. Получение информации из окружающего мира, ее анализ и генерирование составляют одну из основных функций человека, отличающую его от остального живого мира.
