
- •5.Структура и аппаратные средства пк. Процессорный блок. Клавиатура. Дисплей.
- •9. Программная оболочка ms dos Norton Commander.
- •10.Обшие понятия о редактировании текстов. Редактор
- •12 Операционная среда Windows 95
- •13. Текстовый редактор Word.
- •14.Табличные процессоры.Электронная таблица exel 7.0.
- •15Информатика. Информатизация общества. Объект и предмет информатики. Информационные технологии.
- •16. Теоретическая и прикладная информатика
- •17. Категории информатики. Понятия, заимствованные из других наук.
- •18. Категории информатики. Оригинальные понятия и аксиомы, отличающиеся принципиальной новизной.
- •21. Методы и модели оценки количества информации.
- •20. Аксиоматика информатики.
- •22. Основные понятия теории алгоритмов.
- •25.Форматы данных
- •24.Формы представления и преобразования информации
- •26. Информационный ресурс и информатизация общества
- •27.Сущность и цели информатизации общества.Создание информационных структур.
- •30. Восприятие, сбор и хранение информации.
- •31. Обработка, хранение и накопление информации.
- •32. Технические средства реализации информационных процессов.
- •33. Функционирование эвм с шинной организацией.
- •34. Пакеты прикладных программ и их классификация.
- •35.Графические редакторы. Редактор paint.
- •36.Базы и банки данных. Субд Access.
- •38. Пакет Mathcad. Вычисление нелинейных уравнений и экстремумов функций.
- •39.Пакет Mathcad. Построение графиков и вычисление определенных интегралов.
- •41. Вычислительные сети
- •42.Защита информации.
18. Категории информатики. Оригинальные понятия и аксиомы, отличающиеся принципиальной новизной.
Во время развития информатика питала в себя всегда достижения других наук (кибернетики, теории информации, теории систем и т.д.), т.е. является в большей степени объединяющей дисциплиной со всеми чертами метанауки. Вся система категорий состоит из 3 элементов:
☺ понятия, заимствованные информатикой из других наук.
☺ оригинальные понятия и аксиомы
☺ понятия более низких иерархий (субпонятия)
К оригинальным относят: инф. ресурс, социальная энтропия, полезная работа ЭВМ, инф. среда, напряжение инф. поля, исходный и полный инф. Потоки, автоматиз. Инф. Системы, инф. Технологии, искусственный интеллект, информационно-динамический объект,творческая система,ТАС-модели,квант знания,соц.интеллект.
Инф. ресурс-основное понятие, являющееся предметом информатики. Бывает 2 видов: пассивный (книги, статьи) и активный (алгоритмы, программы).
Соц. энтропия – мера отклонения от некоторого состояния, принимаемого за эталонное. Соц. энтропия новая категория информатики, служащая для характеристики управленческих процессов, уровня их осуществления. Соц. энтропия делится на внутреннюю (исходную) и внешнюю (добавленную). Первая связана с недоиспользованием инф. ресурса, а вторая с его недостатком. Такое деление соц. энтропии необходимо, прежде всего для определения полезной работы ЭВМ и его КПД.
Инф. работа – это воздействие наблюдателя на объект путем выработки и передачи сообщений. Инф. работа включает обработку и использование информации для развития системы.
Инф. среда – весь набор условий для технологической переработки и эффективного использования знаний в виде информационного ресурса. К ней относят: аппаратные средства, ПО, телекоммуникации, документопотоки.
Напряженность инф. Поля-это та сила, с которой объект и его среда действуют на управляющ. Подсистему,вызывая ее действие по снятию возникшей энтропииИнформационно –динамический объект-АИС, управляющая подсистема которой выступает в виде творческой системы,создающей новое состояние объекта.
Искусственный интеллект-дублирует функции живых интеллектуальных систем искусственными системами.
Творческая система-интел. Система полного цикла,обеспечивающие фазовый переход знаний в силу, творящие объект.
21. Методы и модели оценки количества информации.
Для характеристики информации имеются единицы измерения, что позволяет некоторой порции информации предписывать имена, количественные характеристики. Информации наиболее известны следующие способы измерения информации:объемный,энтрогенный,алгоритческий.
Объем информации в сообщении – количество символов в сообщении. Но этот способ чувствителен к форме представления информации. В вычислительной технике вся обрабатываемая и хранимая информация , в независимости от природы (числа, текст, изображение) представляется в двоичной форме. Это позволило ввести 2 стандартные единицы измерения: бит, байт. Количество информации в сообщении определяется тем, насколько уменьшится эта мера после получения сообщения.
В теории информации и кодирования принят энтропийный подход к измерению информации. Получатель информации имеет определенные представления о возможностях наступлениях некоторых событий. Эти сведения недостоверны.Энтропия характеризуется некоторой математической зависиомтью от совокупности вероятностей.В теории информации получила оспользование количественная оценка: Н=Логарифм m по основанию 2, где m-число возможных равновероятных выборов.
Шеннону принадлежит обобщение Н: h(итое)=-Лгарифм от Р(итое), где Р(итое)-вероятность итого символа алфавита. Удобнее пользоваться:Н=-сумма от житого =1 до m, под суммой Р(итое)хЛогарифм от Р(итое), житое изменяется от 1 до m.Любому значению можно приписать количественную характеристику,отражающуюсложность программы,которая позволяет её произвести.