
- •Лекция 1. Основные понятия и методы теории информатики и кодирования
- •1.1. Информатика как научная дисциплина
- •1.2. Понятие информации и информационных процессов
- •Свойства информации:
- •1.3. Меры и единицы количества и объема информации
- •1.4. Позиционные системы счисления
- •2) Вычитание
- •1.5. Логические основы эвм
- •Логическое сложение (дизъюнкция).
- •Логическое умножение (конъюнкция).
- •Логическое отрицание (инверсия).
- •Логическое следование (импликация).
- •Логическое равенство (эквиваленция).
- •Правила построения таблицы истинности
- •Лекция 2. Технические средства реализации информационных процессов
- •2.1. История развития эвм
- •2.2. Понятие и основные виды архитектуры эвм
- •2.3. Состав и назначение основных устройств персонального компьютера, их характеристики
- •2.4. Запоминающие устройства: классификация, принцип работы, основные характеристики
- •2.5. Устройства ввода/вывода данных, их разновидности и основные характеристики
- •Лекция 3. Программные средства реализации информационных процессов
- •3.1. Понятие и виды программного обеспечения компьютера
- •Программное обеспечение компьютера
- •Базовое (основное)
- •3.2. Операционная система
- •3.3. Файловая система компьютера
- •3.4. Технологии обработки текстовой информации
- •У становка параметров страницы, шрифта и абзаца
- •Многоколончатая верстка
- •Работа со списками
- •Стилевое оформление текста
- •Работа с таблицами в текстовом редакторе
- •Работа с графическими объектами
- •Создание автоматического оглавления
- •3.5. Электронные таблицы
- •Правила записи формул
- •Относительная адресация
- •Абсолютная адресация
- •Сортировка данных
- •Мастер функций
- •Автозаполнение ячеек таблицы данными
- •1 Способ:
- •2 Способ:
- •Математические функции в Excel
- •3) Корень
- •4) Степень
- •7) Сумм
- •8) Суммесли
- •9) Произвед
- •10) Округл
- •13) Целое
- •14) Окрвверх
- •15) Окрвниз
- •16) Округлвверх
- •17) Округлвниз
- •18) Числкомб
- •Нахождение значения функции в некоторой точке
- •Табулирование функции и построение ее графика
- •Построение графиков двух функций на одной диаграмме
- •Решение уравнений методом подбора параметра
- •Статистические функции
- •2) Макса
- •4) Мина
- •5) Медиана
- •6) Мода
- •7) Наибольший
- •8) Наименьший
- •9) Сроткл
- •11) Счётесли
- •10) Считатьпустоты
- •11) Срзнач
- •12) Срзнача
- •Логические функции Microsoft Excel
- •Если(логическое выражение;значение_если_истина;значение_если_ложь)
- •3.6. Технологии хранения, поиска и сортировки информации в базах данных
- •Классификация баз данных
- •Создание таблицы базы данных
- •Заполнение базы данных
- •Поиск данных в базе данных
- •Создание межтабличных связей
- •Работа с запросами
- •Создания запроса на выборку
- •Создания запроса с параметром
- •Создания запроса нас создание таблицы
- •Создания запроса на обновление
- •Создания запроса на удаление
- •Сортировка данных с помощью запроса на выборку
- •Создание отчетов
- •Лекция 4. Модели решения функциональных и вычислительных задач
- •4.1. Моделирование как метод познания
- •4.2. Классификация и формы представления моделей
- •4.3. Методы и технологии моделирования
- •4.4. Формы представления информационных моделей
- •4.5. Формализация
- •4.6. Объекты и их связи
- •4.7. Табличные информационные модели
- •4.8. Иерархические информационные модели
- •4.9. Сетевые информационные модели
- •Лекция 5. Алгоритмизация и программирование
- •5.1. Понятие алгоритма и исполнителя алгоритмов
- •3. С помощью языка программирования.
- •4. С помощью псевдокодов.
- •5.2. Языки программирования и их виды
- •5.3. Среда программирования Turbo Pascal
- •5.4. Язык программирования Pascal
- •ЦПростые типы Строковый тип Структурированные типы Ссылочные типы Процедурные типы Типы данных елые типы
- •Вещественный тип
- •Символьный тип
- •Логический тип
- •5.5. Линейные алгоритмы. Простые операторы языка Pascal
- •Оператор присваивания
- •Операторы вывода
- •1) Оператор Write
- •2) Оператор Writeln
- •Операторы ввода
- •1) Оператор Read
- •2) Оператор Readln
- •5.6. Разветвляющиеся алгоритмы. Условные операторы языка Pascal
- •Условный оператор If
- •5.7. Циклические алгоритмы. Операторы цикла языка Pascal
- •Оператор цикла с предусловием While
- •Оператор цикла с постусловием Repeat .. Until
- •Оператор цикла с параметром (счетчиком) For
- •Лекция 6. Локальные и глобальные сети эвм
- •6.1. Назначение компьютерных сетей
- •6.2. Виды компьютерных сетей
- •6.3. Понятие глобальной компьютерной сети «Интернет»
- •6.4. Основы функционирования Интернета
- •6.5. Адресация в сети Интернет
- •6.6. Службы Интернета
- •5) Программа пересылки файлов ftp.
- •6.7. Способы подключения к Интернету
- •6.7.1. Подключение по коммутируемой телефонной линии с помощью модема
- •6.7.2. Подключение с применением спутниковой антенны
- •6.7.3. Adsl-доступ с применением телефонной линии
- •6.7.4. Подключение к Интернет по выделенной телефонной линии
- •6.7.5. Подключение к Интернет по технологии gprs
- •6.7.6. Подключение к Интернет по технологии Ethernet
- •Список литературы
МИНИСТЕРСТВО
ОБРАЗОВАНИЯ РОССИЙСКОЙ ФЕДЕРАЦИИ
Федеральное
Агентство по образованию
Костромской
государственный университет им. Н.А.
Некрасова
Кафедра информационных
технологий в образовании
Лекции
по курсу «Информатика»
для
студентов специальности 040101.65 «Социальная
работа»
Составитель:
ассистент
кафедры информационных технологий в
образовании Тихонов С.С.
Кострома
2008
Содержание:
Лекция 1. Основные понятия и методы теории информатики и кодирования
1.1. Информатика как научная дисциплина
Информатика - это новая научная дисциплина и новая информационная индустрия, связанные с использованием персональных компьютеров и сетей ЭВМ.
Информатика как научная дисциплина изучает законы, принципы и методы накопления, обработки и передачи информации с помощью ЭВМ. В этом смысле информатика как наука является фундаментом для развития новой информационной индустрии, основанной на использовании сетей ЭВМ.
Предмет информатики составляют следующие понятия:
- аппаратное обеспечение средств вычислительной техники;
- программное обеспечение средств вычислительной техники;
- средства взаимодействия аппаратного и программного обеспечения;
- средства взаимодействия человека с аппаратными и программными средствами.
Основной задачей информатики является систематизация приемов и методов работы с аппаратными и программными средствами вычислительной техники.
Слово информатика происходит от французского слова Informatique, образованного в результате объединения терминов Informacion (информация) и Automatique (автоматика), что выражает ее суть как науки об автоматической обработке информации.
1.2. Понятие информации и информационных процессов
С понятием информации мы сталкиваемся ежедневно, однако строго и общепризнанного ее определения не существует, поэтому вместо определения обычно используют понятие об информации. Поэтому каждая научная дисциплина на своих конкретных примерах дает определение понятию информация.
Передача информации между живыми организмами и машинами происходит в форме сообщений, представляющих собой определенного рода сигналы.
Данные – составная часть информации, представляющая собой зарегистрированные сигналы.
В связи с этим, дадим следующую трактовку термину «информации» (с точки зрения науки информатики):
Информация – продукт взаимодействия данных и адекватных методов их обработки.
Свойства информации:
Объективность. Информация объективна, если она не зависит от чьего-либо мнения или суждения.
Полнота. Информация полна, если её достаточно для понимания и принятия решений. Полнота информации во многом характеризует качество информации.
Достоверность. Информация достоверна, если она отражает истинное положение дел.
Точность. Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т.п.
Доступность. Доступность информации – мера возможности получить ту или иную информацию.
Актуальность. Актуальность информации – это степень соответствия информации текущему моменту времени.
Понятность. Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.
Использование информации предусматривает выполнение над ней некоторых действий, называемых информационными процессами.
Информационные процессы – это процессы сбора, передачи, хранения, обработки и использования информации.
1.3. Меры и единицы количества и объема информации
Алфавитный подход к измерению количества информации
Если информация представлена в виде дискретного сообщения (формирующегося из отдельных знаков), то логично считать количеством информации его длину, то есть общее число знаков в сообщении. Но длина сообщения зависит не только от содержащейся в нем информации. На нее влияет мощность алфавита используемого языка. Чем меньше знаков в используемом алфавите, тем длиннее сообщение. Так, например, в алфавите азбуки Морзе всего три знака (точка, тире, пауза), поэтому для кодирования каждой русской или латинской буквы нужно использовать несколько знаков, и текст, закодированный по Морзе, будет намного длиннее, чем при обычной записи.
Пример: Сигнал SOS: 3 знака в латинском алфавите;
11 знаков в алфавите Морзе: ··· пауза – – – пауза ···.
Для упорядочивания измерений информационный объем сообщений принято измерять в битах. Один бит соответствует одному знаку двоичного алфавита. Итак, чтобы измерить длину сообщения, его нужно представить в двоичном виде и подсчитать количество двоичных знаков – битов. При этом совсем не обязательно уметь интерпретировать сообщения.
Пример: Пусть сообщение в двоичном алфавите выглядит следующим образом: 000100010001. Мы не знаем, какая информация была заложена в этом сообщении, но можем легко подсчитать его длину – 12 двоичных знаков, следовательно, его информационный объем равен 12-ти битам.
Такой способ измерения количества информации называется алфавитным подходом. При этом измеряется не содержание информации с точки зрения его новизны и полезности, а размер несущего информацию сообщения. Мы уже убедились, что при алфавитном подходе к определению количества информации одни и те же сведения,
закодированные по-разному, будут иметь различный информационный объем. Сообщения одинаковой длины могут нести как совершенно бесполезные сведения, так и нужную информацию. Пример: Применяя алфавитный подход, получаем, что информационный объем слов “фыырпбьощ” и “компьютер” совершенно одинаков, а слов “ученик” и “учащийся” – различен.
Если алфавит содержит 2n знаков, то каждый из его знаков можно закодировать с помощью n знаков двоичного алфавита. Таким образом, объем информации, содержащейся в сообщении длиной m при использовании алфавита мощностью 2n, равен m·n бит.
Пример:
Найдем информационный объем слова SOS, записанного в компьютерной кодировке. При кодировании букв в компьютере используется либо алфавит ASCII (American Standard Code for Information Interchange — американский стандартный код обмена информацией), состоящий из 28=256 знаков, либо алфавит Unicode, мощность которого 216 = 65536. В слове SOS три буквы, следовательно, его информационный объем 3·8=24 или 3·16=48 бит, в зависимости от используемой кодировки.
Алфавитный подход удобен при подсчете количества информации, хранимого, передаваемого и обрабатываемого техническими устройствами. Действительно, устройствам нет дела до содержательной стороны сообщений. Компьютеры, принтеры, модемы работают не с самой информацией а с ее представлением в виде сообщений. Оценить информационные результаты их работы как полезные или бесполезные может только человек.
Единицы измерения информации
Для удобства, помимо бита используются более крупные единицы измерения количества информации. Вот соотношения между ними:
1 байт = 23 бит = 8 бит
1 килобайт (Кб) = 210 байт = 1024 байт
1 мегабайт (Мб) = 1024 Кб
1 гигабайт (Гб) = 1024 Мб
1 терабайт (Тб) = 1024 Гб
То, что отношения между единицами измерения кратны степеням 2, объясняется большим теоретическим и практическим значением двоичного кодирования в информатике.
Количество информации как мера уменьшения неопределенности (вероятностный подход к измерению количества информации)
С точки зрения отдельного человека, ценность информации определяется тем, насколько она проясняет для него какой-либо вопрос, то есть уменьшает неопределенность ситуации. При этом количество одной и той же информации может быть оценено различными людьми по-разному. Для объективного измерения количества информации необходимо формализовать задачу.
Будем считать события равновозможными, если мы не располагаем заранее никакой информацией (статистическими данными, логическими умозаключениями и т.д.), о том, что шансы одного из событий выше или ниже, чем шансы любого другого. При этом имеется в виду, что в результате опыта обязательно наступит какое-либо событие и притом только одно.
Так, например, при подбрасывании монеты выпадение орла или решки можно считать равновозможными событиями, предполагая монету идеальной, то есть исключив из рассмотрения возможность других исходов ("зависла в воздухе", "встала на ребро"), а также влияние на исход опыта чеканки на сторонах монеты, отклонения формы реальной монеты от правильной и т. д.
Чем больше равновозможных событий, тем больше неопределенность ситуации.
Минимальный размер сообщения о том, что произошло одно из двух равновозможных событий, равен одному биту.
Информацию о том, что произошло первое событие, можно закодировать в двоичном алфавите нулем, а о том, что произошло второе событие – единицей.
Для уменьшения неопределенности в два раза (вместо двух возможных событий – одно реально произошедшее) требуется один бит информации. Иначе говоря, сообщение, уменьшающее неопределенность ситуации в два раза, несет один бит информации.
Пример. С точки зрения уменьшения неопределенности, сообщение о исходе опыта бросания идеальной монеты (два равновозможных события) несет один бит информации.
Пример. С точки зрения уменьшения неопределенности, сообщение о исходе опыта бросания двух идеальных монет (четыре равновозможных события: орел-решка; решка-орел; орел-орел; решка-решка) несет два бита информации. Действительно, 2n в данном случае равняется четырем, следовательно n = 2.
Задача нахождения n по известному значению k = 2n решается нахождением логарифма числа k по основанию 2, поэтому, для того, чтобы закодировать информацию, уменьшающую неопределенность в k раз, необходимо log2k бит информации. Приведем таблицу некоторых двоичных логарифмов, являющихся целыми числами.
n |
log2k |
1 |
0 |
2 |
1 |
4 |
2 |
8 |
3 |
16 |
4 |
32 |
5 |
64 |
6 |
128 |
7 |
256 |
8 |
512 |
9 |
1024 |
10 |
Пример. С точки зрения уменьшения неопределенности, сообщение о исходе опыта бросания точечного объекта на шахматную доску (равновозможные события - попадания в одну из 64 клеток) несет 6 бит информации. Действительно, k в данном случае равняется 64, log264 = 6. Минимальная длина двоичного сообщения также будет равна 6. Подробнее: номер клетки доски по вертикали можно закодировать целым числом от 0 до 7. Для этого требуется 3 двоичных разряда. Еще 3 разряда нужны для того, чтобы закодировать номер клетки доски по горизонтали, 3+3=6. Можно также просто пронумеровать все клетки числами от 0 до 63. Для этого опять-таки потребуется 6 разрядов.