Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
шпора информатика.doc
Скачиваний:
13
Добавлен:
24.09.2019
Размер:
689.66 Кб
Скачать

1. Информатика как наука, ее структура и мето в системе других наук.

Информатика –изучает вопросы, связанные с поиском, сбором, хранением, преобразованием и использованием инф. в различных сферах человеческой деятельности.

Информация – отображение реального мира с помощью сведений, сообщений.

Именно с позиций принятия решения рассматриваются качественные признаки инф., ее потребительские свойства.

1.Объективность.2. Достоверность инф.3. Полнота инф. 4.Актуальность (своевременность) инф.5.Полезность(ценность)инф.6.Доступность: 7.Своевременность

Информационные процессы три основных типа информационных процессов: хранение, передача, обработка..Хранение инф. Носитель инф. – это среда для записи и хранения инф..Передача инф. – это передача какого-либо сигнала. Сигнал – это способ передачи инф.. Он представляет собой физический процесс, имеющий информационное значение.Процесс передачи инф. предполагает наличие ее источника и приемника, между которыми действует канал связи. .Различают дискретные и аналоговые сигналы.Аналоговый (непрерывный) сигнал – сигнал, непрерывно меняющийся во времени. Дискретный (прерывистый) сигнал – сигнал, который может принимать конечное число значений в конечное число моментов времени..Количество значений дискретного сигнала можно подсчитать, и каждое из них представить в виде числа. Отсюда дискретный сигнал называют также цифровым. информация, записанная в аналоговой форме, полнее отражает многообразие мира, ибо многие нюансы теряются при записи посредством дискретных сигналов (оцифровке).Обработка инф. В общем случае можно сказать, что обработка инф. – это преобразование инф. из одного вида в другой по строгим формальным правилам.

1. По способу восприятия. У человека пять органов чувств, и отсюда выделяют пять видов инф.: зрительная, звуковая, тактильная вкусовая, обонятельная.

2. По способу отображения: текстовая; числовая; графическая; звуковая.

Наиболее полно можно судить об объекте или явлении, если соединяются различные формы представления инф..

3. По общественному значению4. По способу передачи: дискретная и непрерывная.

5. По месту возникновения: входной, выходной, внутренней, внешней.

6. По стабильности: постоянной и переменной.

7. По стадии обработки: первичная, вторичная, промежуточная, результатная.

8. По предметной области: статическая, коммерческая, нормативная.

Измерение инф-ии. Вероятностный и объемный подход к измерению информации.

Измерение инф.: 1) вероятностный подход;2) объемный подход.

К. Шеннон - специалист в области средств связи ввел математическое понятие количества инф., положив тем самым начало теории инф. как технической и математической дисциплины. Теория инф. - раздел кибернетики, изучающий способы измерения и передачи инф..Количественную меру дает вероятностный подход. С этой точки зрения информация рассматривается как снятая неопределенность. Обозначим N – количество возможных событий, I - количество инф. в сообщении о том, что произошло одно из N событий (N=2, I=1). I измер. в битах. Связь между этими величинами выражается формулой Хартли: = N, I= log2N. Сообщение о событии, уменьшающее неопределенность в 2 раза несет 1 бит инф. Количественная мера неопределенности пропорциональна количеству возможных исходов. Это приводит к определению энтропии опыта - численная мера неопределенности опыта.Т.к. опыт имеет N равновероятных исходов, то можно считать, что на долю каждого исхода приходится 1/N часть общей

неопределенности опыта: .

Обозначим вероятность i-го исхода опыта через Рi (i =1,2,...N). Pi =1/N, тогда формула для численной меры неопределенности (формула количества инф.) имеет вид: Ф. Шеннона.

синтаксис – правила записи с помощью символов. Информацию, рассматриваемую только с синтаксических позиций, называют данными, так как при этом не имеет значения смысловая сторона. Это особенно ярко проявляется при алфавитном подходе к измерению инф.. При этом говорят не о количестве инф., а об объеме данных, т.е. количестве символов, изображающих полученное сообщение. Мощность алфавита – количество используемых в алфавите символов. Алфавитный подход (объемный ). В ЭВМ 256 символов. Так как 256=28, то один символ этого алфавита весит 8 бит. Для удобства введены крупные единицы количества инф.. Восьмиразрядное двоичное слово называют байт.(8 бит=1 байт). В одном байте можно закодировать значение одного из 256 символов (28). 1Кбайт = 1024 байта=210байта; 1Мегабайт = 1024 Кбайт=220байт; 1Гигабайт = 1024 Мбайт=230байт.