
- •2.Понятие информации
- •3. Кодирование Информации.
- •Системы счисления, используемые в эвм
- •Двоично-десятичная система счисления
- •Перевод целых чисел.
- •Двоичная арифметика. Выполнение арифметических операций.
- •(К вопросу об истории вычислительной техники)
- •6. Состав пк и Принцип работы пк
- •7. Запоминающие устройства.
- •8. Дополнительные устройства пк
- •Программы и их виды.
- •10. Понятие и назначение операционной системы. Разновидности ос. Организация файловой системы.
- •Внутренние команды мс дос: (Обрабатываются командным процессором )
- •2. Архиваторы.
- •3. Антивирусные программы
- •Условия безопасной работы компьютерных систем и технология обнаружения заражения вирусами
- •Классификация и характеристика компьютерных вирусов
- •Антивирусные средства
- •4. К сервисным или служебным программам относятся также и различные редакторы.
- •12. Основы машинной графики
- •Лекция 8. Передача информации. Локальные компьютерные сети.
- •Система адресации в сети internet
- •2. Формы представления моделей. Формализация.
- •3. Системный подход в моделировании.
- •(20.) Типы им
- •Одним из примеров Информационной модели данных могут служить базы данных.
- •Компьютерное моделирование
- •1.1. Понятие алгоритма
- •Алгоритмическая система
- •Алгоритмизация
- •Примеры решения линейных задач, задач на разветвление (выбор мах, мин), на циклические процессы(сумма, произведение), табулирование функции (вложенные циклы), функции пользователя.
- •1. Построение алгоритмов с использованием цикла с параметром Вычисление конечных сумм и произведений
- •2. Построение алгоритмов с использованием цикла с предусловием
- •3. Построение алгоритмов с использованием цикла с постусловием
- •Вспомогательные алгоритмы. Процедуры. Функции.
- •31. Структурное программирование.
- •28. Эволюция и классификация языков программирования.
- •29. Интегрированные среды программирования.
2.Понятие информации
Понятие информации является центральным понятием информатики, объектом ее исследования. Принято следующее определение:
Определение информации.
ИНФОРМАЦИЯ – это содержание сообщения, сигнала, памяти. Процессы передачи, хранения и переработки информации, называются Информационными процессами. Они всегда играли важную роль в жизни общества. Люди обмениваются устными сообщениями, записками, используют для этого электронную и голосовую почту. Они передают друг другу просьбы, приказы, объявления и научные статьи; хранят старые письма и документы; размышляют над полученными известиями, реагируют на них. Все это – информационные процессы.
Представление и виды информации.
Информация всегда связана с материальным носителем, а ее передача – с затратами энергии. Одну и ту же информацию можно хранить в различном материальном виде: на бумаге, в виде фотонегатива, на магнитной ленте и т.д. и передавать с различными затратами энергии – по почте, по телефону, с курьером и т.д.
Информацию часто классифицируют по ее характерным признакам, перечислим виды информации:
Числовая инф-я, представленная цифрами и отражающая результаты некоторого вычисления.
Текстовая – в виде слов, состоящих из символов.
Кодовая, представленная кодами (напр., азбука Морзе, машинные коды и т п.).
Графическая – представленная графическими объектами с учетом их геометрических и оптических свойств.
Акустическая, представленная звуками.
Телевизионная – изображения в ТВ-формате.
Видио-информация – это видео- и кинофильмы в специальных форматах.
При любых видах работы с информацией всегда идет речь о ее представлении в виде определенных символических структур. Наиболее распространенны одномерные представления информации, при которых сообщения имеют вид последовательности символов, например, - в письменных текстах (набор букв), при передаче по каналам связи (уровень электрического сигнала), в памяти ЭВМ (наличие или отсутствие сигнала). Однако широко используются и многомерные представления информации в виде рисунков, схем, объемных макетов и плюс к этому множественность признаков используемых символов. Например, информацию могут нести не только значения букв и цифр, но и их цвет, размер, вид шрифта.
Формы адекватности и количество информации.
Под количеством информации понимают количество кодируемых, передаваемых или хранимых символов.
Наименьшей единицей информации является бит (от англ. binary digit (bit)).
Бит - это наименьшая единица памяти, необходимая для хранения одного из двух знаков 0 и 1, используемых для внутримашинного представления данных и команд.
В современных компьютерах помимо двоичной системы счисления применяют и другие: восьмеричную и шестнадцатеричную системы счисления – для компактной записи двоичных кодов чисел и команд.
В информатике принято рассматривать последовательности длиной 8 бит. Такая последовательность называется байтом (1 байт=8 битам).
Байт - это восьмиразрядный двоичный код, с помощью которого можно представить один символ.
С помощью одного байта можно записать двоичные коды 256 (28) чисел от 0 до 255.
Широко используются также еще более крупные производные единицы информации:
1 Килобайт (Кбайт) = 1024 байт = 210 байт,
1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,
1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.
В последнее время в связи с увеличением объемов обрабатываемой информации входят в употребление такие производные единицы, как:
1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,
1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.
Различают три формы адекватности и соответствующие им меры информации:
Синтаксическая, отражающая формально-структурные свойства информации без учета ее смыслового содержания.
Семантическая – смысловая.
Прагматическая (потребительская) ценность.
Синтаксическая мера информации характеризуется объемом данных и количеством информации в битах и байтах.
Наименьшее количество информации, это когда надо произвести выбор один из двух возможных – «есть» или «нет» - называется БИТ. В вычислительной технике бит может принимать значения 1 или 0. На этом построена вся структура ЭВМ (триггер – включить - выключить, напряжение – выше, ниже и т.п.).
Объем данных измеряется числом символов (разрядов) Vd в передаваемом сообщении.
Количество (Мера) информации по Шеннону
Если А – предварительные (априорные) сведения о системе, то неосведомленность о некоторой изучаемой системе определяется энтропией Н(А). С получением сообщения B неопределенность сведений о системе станет = Нb(А), тогда количество информации в полученном сообщении будет равно
Ib(А)=Н(А)-Нb(А),
Следовательно количество информации определяется уменьшением неопределенности ( неосведомленности) пользователя.
Пусть информационная система имеет N состояний. Шеннон показал, что энтропия системы ( мера недостающей информации о ней) определяется
Н(А)= -i=1 ∑N Pi log( Pi )
Где Pi – вероятность нахождения системы в i-м состоянии.
Если все составляющие равновероятны, то имеем:
Н(А)=- i=1 ∑N (1/N) log(1/N)
Заметим, что N=mn , m - основание системы счисления, n - число разрядов в сообщении.
Степенью информативности сообщения Y называется отношение количества информации I к объему данных в сообщении, т.е. Y= I/Vd. 0<Y<1 Она же - является мерой лаконичности сообщения. Чем она выше, тем меньше объем работ по преобразованию информации.
Семантическая и прагматическая меры информации Для измерения смыслового количества информации используется ТЕЗАУРУС –совокупность сведений которыми располагает пользователь или система распознавания информации.
Пусть S – смысл содержания информации, а Si – тезаурус пользователя.
Если Si=0, то поступающая информация бесполезна, если Si стремится к бесконечности, то пользователь уже все знает и информация для него тоже бесполезна. Таким образом, можно утверждать, что зависимость количества семантической информации Is=F(Si) имеет MAX (максимум) и спадающие участки. Отношение Is/ Vd =C (где Vd - это, напоминаю, объем данных) называют относительной мерой количества семантической информации.
Прагматическая мера информации определяется ее ценностью для некоторого пользователя. Например, информация может быть ценна потому, что относится к определенному лицу или устройству или расположена на доступных носителях…
Мы помним определение ИНФОРМАЦИИ, как содержание сообщения, сигнала, памяти.
Различают разные виды сигналов для передачи данных: Они могут быть дискретные, аналоговые, видео-, звуковые сигналы.
Непрерывные (аналоговые) сигналы – их недостаток – ШУМЫ, низкое качество передаваемого сигнала.
Дискретный сигнал – можно представить разными уровнями параметра, например, вкл – выкл. Если уровней много, можно говорить о цифровом представлении информации. Сигналы, мгновенные значения которых представлены цифрами (числами), принято называть цифровыми сигналами.
Совокупность методов, устройств и производственных процессов, используемых обществом для сбора, хранения, обработки и распространения информации называются информационными и коммуникационными технологиями.
Для жизни и деятельности в информационном обществе необходимо обладать информационной культурой, т.е. знаниями и умениями в области информационных технологий, а также быть знакомым с юридическими и этическими нормами в этой сфере.
Социально значимые свойства информации.
Человек = существо социальное, для общения с другими людьми он должен обмениваться с ними информацией, причем обмен должен осуществляться на понятном языке. 1-е свойство информации – ПОНЯТНОСТЬ. Кроме того, информация должна быть ПОЛЕЗНОЙ, достоверной, актуальной, ПОЛНОЙ и ТОЧНОЙ.
Важным свойством информации является возможность ее размножения и накопления с использованием книгоиздания и копировальных аппаратов.
Информацию не надо путать с данными.
Просто цифры, например, 783398, 1110011 – это данные. Если эти цифры являются номером телефона, то это уже информация.
По мере накопления информации формируются ЗНАНИЯ. Знания – это закономерности, принципы, связи, позволяющие ставить задачи и решать их. Вся система образования по сути дела решает задачу предоставления знаний, учит извлекать нужную информацию, грамотно ее использовать для создания новых знаний. Решена задача обучения на расстоянии – дистанционное обучение.
Передать данные на расстояние задача не простая, но она решалась уже очень давно, когда придумали голубиную почту, потом – пневматическую – это все письма на бумаге. Передача данных осуществляется и с помощью электрического тока и радиоволн (проводные и беспроводные линии связи), с помощью света (оптические, лазерные и оптоволоконные линии связи) – это безбумажная передача. Передача данных на расстояние привело к возникновению телекоммуникаций, к электронной почте.
*****