Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Учебное пособие для ГУ и ЕН бакалавры.docx
Скачиваний:
36
Добавлен:
24.11.2019
Размер:
14.1 Mб
Скачать

Министерство образования

и науки Российской Федерации

Л. И. Бродская, А. Ю. Коврижных,

Е. А. Конончук, А. С. Лахтин,

С. Н. Семенищева, Е. И. Смирнова,

С. И. Солодушкин, Т. К. Стихина

ИНФОРМАТИКА

Учебное электронное текстовое издание

Пособие предназначено для учебно-методического обеспечения унифицированных модулей бакалавриата естественнонаучного и гуманитарного профилей направлений подготовки содержащих разделы дисциплины «Информатика».

Подготовлено: кафедрой информатики и процессов управления, кафедрой вычислительной математики, кафедрой прикладной математики ИМКН.

Екатеринбург

2011

СОДЕРЖАНИЕ

Данные и информация 8

Свойства информации 9

Методы и модели оценки количества информации 12

История развития вычислительной техники 18

Материнская плата 26

Процессор 26

Оперативная память 29

Видеокарта 30

Жесткий диск 32

Оптические приводы 33

Слоты расширения: PCI и PCI Express 33

Звуковая плата 34

Сетевая карта 34

Дополнительные USB-порты 35

USB-диски 35

Монитор 36

Клавиатура 38

Мышь 38

Принтер 39

Источники бесперебойного питания и сетевые фильтры 40

Ноутбуки 40

БИОС 43

Рабочий стол 45

Главное меню 46

Работа с окнами 48

Изменение оформления рабочего стола 48

Изменение системного времени 49

Параметры меню Пуск и панели задач 50

Общие команды меню Windows-программ. Буфер обмена Windows 54

Файл. 57

Физическая и логическая структура жестких дисков. 58

Файловая система 60

Распространенные файловые системы 61

Файловая система FAT32 70

Файловая система NTFS 71

Файловая система ОС семейства UNIX 74

Первое знакомство с Microsoft Word 2010 76

Фрагменты и работа с ними 81

Форматирование символов 85

Форматирование текста 91

Форматирование страниц. Предварительный просмотр и печать документа 101

Поиск и замена текста. Автозамена и автотекст 106

Правописание. Поиск синонимов. 110

Таблицы 111

Основные приемы работы в MS Excel 2010 121

Создание и сохранение первого файла MS Excel 2010 121

Ссылки и их различия 132

Функции рабочего листа MS Excel 2010 141

Встроенные средства визуализации данных в MS Excel 2010 143

Диаграммы 143

Спарклайны 147

Работа со списками в MS Excel 2010 148

Вопросы обмена данных 154

Копирование данных между приложениями MS Office 2010 154

Подключение данных к листу MS Excel 2010 154

Экспорт данных из MS Excel 2010 155

Таблицы 157

Связи 159

Запросы 160

Формы 162

Отчеты 163

Сводные таблицы и диаграммы 164

Макросы 164

Введение 166

Основные приемы работы с Microsoft Office PowerPoint 2010 167

Новинки MS PowerPoint . 197

Основные элементы интерфейса 210

Заметки 212

Задача 213

Календарь 213

Контакты 213

Microsoft Outlook как почтовая программа 214

Понятие алгоритма 215

Исполнители алгоритмов 217

Вспомогательные алгоритмы 228

Циклические алгоритмы 240

Понятие типа данных 245

Символьный и строковый тип 254

Массивы 258

Интернет и компьютерные сети 263

Принципы построения сетевых протоколов 266

Адресация в компьютерных сетях 272

Службы Интернета 272

Облачные вычисления. 274

Язык разметки гипертекста. Основы создания сайтов. 276

Угрозы безопасности 279

Компьютерные вирусы 281

Введение

Информатика возникла сравнительно недавно и по сравнению с другими науками еще совсем молода. В настоящее время информатика выдвинулась в ряд важнейших областей знания. Причина ее стремительного развития состоит в том, что предмет ее исследования ‑ научная информация, свойства и закономерности ее распространения ‑ приобретает в современном мире исключительное значение. Предмет информатики меняется ускоренными темпами. Рост производства компьютерной техники, развитие информационных сетей, создание новых информационных технологий приводят к значительным изменениям во всех сферах общества: в производстве, науке, образовании, медицине и т.д. Информатика ‑ динамичная область знаний. Содержание многих понятий информатики, может с течением времени изменится. Однако, очевидно, что не уменьшится значение информатики как науки для человеческого общества.

Цель данного пособия ‑ оказать помощь студентам в освоении программы по дисциплине «Информатика».

Пособие состоит из одиннадцати глав, разделенных на параграфы.

Материал пособия можно использовать для учебно - методического обеспечения как гуманитарных, так и естественнонаучных направлений бакалавриата, в образовательную программу которых входят разделы, связанные с информатикой. Кроме теоретических основ информатики в пособии большое внимание уделяется также практическим вопросам: работе в сети, представлению информации в интернет, освоению пакетов прикладных программ, информационной безопасности.

Настоящее пособие не является учебником, и не может претендовать на полноту изложения материала. Для более глубокого и основательного изучения дисциплины полезно обращаться к рекомендуемой литературе, указанной в конце пособия.

Глава 1. Информатика и информация

Термин «информатика» (франц. informatique) происходит от французских слов information (информация) и automatique (автоматика) и дословно означает «информационная автоматика», что выражает ее суть как науки об автоматической обработке информации. Распространён также англоязычный вариант этого термина — «Сomputer science», что означает буквально «компьютерная наука».

Инфоpматика — это основанная на использовании компьютерной техники дисциплина, изучающая структуру и общие свойства информации, а также закономерности и методы её создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности.

Таким образом, информатика базируется на компьютерной технике и немыслима без нее.

Перечислим основные направления информатики:

  • pазpаботка вычислительных систем и пpогpаммного обеспечения;

  • теоpия инфоpмации, изучающая процессы, связанные с передачей, приёмом, преобразованием и хранением информации;

  • методы искусственного интеллекта, позволяющие создавать программы для решения задач, требующих определённых интеллектуальных усилий при выполнении их человеком (логический вывод, обучение, понимание речи, визуальное восприятие, игры и др.);

  • системный анализ, заключающийся в анализе назначения проектируемой системы и в установлении требований, которым она должна отвечать;

  • методы машинной графики, анимации, средства мультимедиа;

  • средства телекоммуникации, в том числе, глобальные компьютерные сети, объединяющие всё человечество в единое информационное сообщество;

  • разнообразные пpиложения, охватывающие производство, науку, образование, медицину, торговлю, сельское хозяйство и все другие виды хозяйственной и общественной деятельности.

Информатику обычно представляют состоящей из двух частей:

  • технические средства;

  • программные средства.

Технические средства, то есть аппаратура компьютеров, в английском языке обозначаются словом Hardware, которое буквально переводится как "твёрдые изделия".

для программных средств выбрано слово Software (буквально — "мягкие изделия"), которое подчёркивает равнозначность программного обеспечения и самой машины и вместе с тем подчёркивает способность программного обеспечения модифицироваться, приспосабливаться, развиваться.

Программное обеспечение — это совокупность всех программ, используемых компьютерами, а также вся область деятельности по их созданию и применению.

Помимо этих двух общепринятых ветвей информатики выделяют ещё одну существенную ветвь — алгоритмические средства. Для неё было предложено название Brainware (от англ. brain — интеллект). Эта ветвь связана с разработкой алгоритмов и изучением методов и приёмов их построения.

Алгоритмы — это правила, предписывающие выполнение последовательностей действий, приводящих к решению задачи.

Нельзя приступить к программированию, не разработав предварительно алгоритм решения задачи.

Предмет исследования информатики – научная информация, свойства и закономерности ее распространения

С понятием информации мы сталкиваемся ежедневно, хотя строгого и общепризнанного определения до сих пор не существует. Понятие информации является одним из самых обсуждаемых в науке. Сам термин «информация» происходит от латинского слова «information», что означает сведения, разъяснения, изложение. В обиходе информацией называют любые данные, или сведения, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п. "Информировать" в этом смысле означает "сообщить нечто, неизвестное раньше".

Рассмотрим один из возможных подходов к определению информации.

Данные и информация

Обсудим подход к понятию информации, который приводится в работе [Информатика. Базовый курс: учебное пособие для вузов / Под ред. С. В. Симоновича.-2-е изд..-СПб.: Питер, 2010.- 640 с.]

Все виды энергообмена в физическом мире сопровождаются появлением сигналов. При взаимодействии сигналов с физическими телами в последних возникают определенные изменения свойств – это явление регистрации сигналов. Такие изменения наблюдаются, измеряются и фиксируются другими способами, образуются новые сигналы, т.е. данные.

Понятие 1. Данные – это зарегистрированные сигналы.

Данные несут информацию о событиях, но не тождественны информации. Для того, чтобы данные несли информацию, необходим подходящий метод обработки данных. Например, секундомер регистрирует данные (положение стрелок), но для получения информации надо знать цену деления секундомера.

Понятие информации

Понятие 2. Информация – это продукт взаимодействия данных и адекватных им методов.

Важны следующие обстоятельства в определении информации:

  1. Динамический характер. Информация – динамична, меняется и существует только в момент взаимодействия данных и методов.

  2. Требование адекватности методов. Одни и те же данные в момент потребления могут поставлять разную информацию. Пример: Вам пришло письмо из Китая. Если вы владеете китайским языком (адекватным методом обработки данных), то вы получите информацию из этого письма. В противном случае придется довольствоваться информацией о внешнем виде письма, дате его отправления и т.д.

  3. Диалектический характер данных и методов. Данные являются объективными как результат взаимодействия объективно существующих сигналов. В то же время, методы являются субъективными. В основе искусственных методов лежат алгоритмы. В основе естественных методов лежат свойства субъектов информационного процесса. Таким образом, информация возникает и существует в момент диалектического взаимодействия объективных данных и субъективных методов.

Свойства информации

  1. Объективность и субъективность информации. Более объективной принято считать ту информацию, в которую методы вносят меньший субъективный элемент. Так, например, принято считать, что в результате наблюдения фотоснимка некоторого объекта образуется более объективная информация, чем в результате наблюдения рисунка того же объекта, выполненного человеком. В ходе информационного процесса степень объективности информации всегда понижается. Объективность информации учитывают в исторических дисциплинах. Одни и те же события, зафиксированные в исторических документах разных стран и народов, выглядят совершенно по-разному. У историков имеются свои методы для тестирования объективности исторических данных и создания новых, более достоверных данных путем сопоставления фильтрации и селекции исходных данных.

  2. Полнота информации определяется достаточностью данных. Информация полна, если её достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки. Чем полнее данные, тем шире диапазон методов, тем проще подобрать метод, вносящий минимум погрешностей в ход информационного процесса.

  3. Достоверность информации определяется уровнем «информационного шума». «Полезные» сигналы всегда сопровождаются посторонними сигналами «информационным шумом». При увеличении уровня шумов достоверность информации снижается.

  4. Адекватность информации – степень соответствия реальному, объективному состоянию дел. Неадекватная информация может быть образована на основе неполных или недостоверных данных.

  5. Доступность информации – мера возможности получить ту или иную информацию, определяется доступностью данных и доступностью адекватных методов обработки данных.

  6. Актуальность информации – степень соответствия информации текущему моменту времени.

Отметим также другой подход к определениям данных и информации.

Данные – это информация, которая представлена в виде, подходящем для обработки вычислительной машиной (или программой, алгоритмом в более широком смысле). Тогда появление информации можно описать следующей схемой 2.

Перечислим основные операции с данными и информацией:

  • сбор данных;

  • формализация данных (приведение к одной форме);

  • фильтрация данных (отсеивание лишних данных);

  • защита данных;

  • архивация данных;

  • сортировка данных;

  • транспортировка данных;

  • преобразование данных.

Для выполнения вышеперечисленных операций необходимо использовать вычислительную технику. При этом данные должны быть структурированы.

В курсе информатики (а также и при изучении других дисциплин) мы будем сталкиваться со следующими структурами данных:

  • Линейная (списки) – структура последовательного доступа. Преимуществом данной структуры является простота;

  • Иерархическая структура, в отличие от линейной, удобна для быстрого поиска данных), однако путь к элементу структуры может быть достаточно длинным.

  • Табличная структура связывает элементы иерархической структуры.

Методы и модели оценки количества информации

Возможно ли объективно измерить количество информации? На этот вопрос отвечает раздел информатики – теория информации.

В определенных, весьма широких условиях можно пренебречь качественными особенностями информации, выразить её количество числом, а также сравнить количество информации, содержащейся в различных группах данных. Далее, оставляя в стороне меры семантического уровня (уровень смысла сообщения) и прагматического уровня (уровень полезности сообщения) оценки информации остановимся на следующих способах измерения информации:

  • объемный;

  • энтропийный;

  • алгоритмический.

Дадим краткую характеристику каждого из перечисленных подходов.

Названные способы измерения информации можно отнести к мерам синтаксического уровня. На синтаксическом уровне измерения информации рассматриваются внутренние свойства сообщения, т.е. отношения между знаками, отражающие структуру знаковой системы. Проблемы такого уровня касаются создания теоретических основ построения информационных систем с целью повышения их эффективности. На этом уровне полностью абстрагируются от смысла сообщения. Для измерения информации такого уровня вводятся два параметра: объем информации или данных (объемный подход) и количество информации (энтропийный подход).

Объем информации в сообщении – это количество символов в сообщении. Такой способ чувствителен к форме представления сообщения.

Для автоматизации работы с данными, относящимися к различным типам, очень важно унифицировать их форму представления – для этого обычно используется прием кодирования, то есть выражение данных одного типа через данные другого типа. Естественные человеческие языки – это не что иное, как системы кодирования понятий для выражения мыслей посредством речи. К языкам близко примыкают азбуки (системы кодирования компонентов языка с помощью графических символов).

Проблема универсального средства кодирования достаточно успешно реализуется в отдельных отраслях техники, науки и культуры. В качестве примеров можно привести систему записи математических выражений, телеграфную азбуку, морскую флажковую азбуку, систему Брайля для слепых и многое другое.

Своя система кодирования существует и в вычислительной технике – она называется двоичным кодированием и основана на представлении данных последовательностью всего двух знаков: 0 и 1. Эти знаки называются двоичными цифрами.

Как с помощью двух цифр можно представить все многообразие чисел, букв, других символов? Десятичная система счисления располагает десятью цифрами, но представляет с их помощью любое мыслимое число. Дело в том, что десятичная система счисления является позиционной, т.е. значение каждой цифры определяется ее местом (позицией). Например, 467=7 единиц, 6 десятков, 4 сотни. Позиционная система счисления определяется ее основанием, т.е. числом цифр, которым располагает эта система. Каждое число является суммой произведений цифры числа на степень основания, начиная со степени 0. Основанием десятичной системы является число 10, следовательно 467 можно представить как

467 = 7*100+6*101+4*102 = 7+60+400.

Если вместо десяти цифр в нашем распоряжении только две (0 и 1), то можно говорить о двоичной системе счисления, которая тоже является позиционной, но по основанию 2. Например:

1102 = 0*20+1*21+1*22 = 0+2+4 = 610

11112 = 1*20+1*21+1*22+1*23 = 1+2+4+8 = 1510

Любое число можно представить с помощью двух цифр, только запись число будет длиннее.

В качестве единицы информации условились принять один бит (англ. bit — binary, digit — двоичная цифра).

Одним битом могут быть выражены два понятия: 0 или 1 (да или нет, истина или ложь). Если количество битов увеличить до двух, то уже можно закодировать четыре различных понятия: 00 01 10 11.

Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений. Приведем другие примеры равновероятных сообщений:

  • при бросании монеты: «выпала решка», «выпал орел»;

  • на странице книги: «количество букв чётное», «количество букв нечётное».

В вычислительной технике битом называют наименьшую «порцию» памяти, необходимую для хранения одного из двух знаков «0» и «1», используемых для машинного представления данных и команд.

Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная восьми битам. Вместе с нулем в одном байте можно записать 256 различных целых чисел. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).

Широко используются также ещё более крупные производные единицы информации:

  • 1 Килобайт (Кбайт) = 1024 байт = 210 байт,

  • 1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

  • 1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт,

  • 1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,

  • 1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

Энтропийный подход принят в теории информации и кодировании. Имеем следующую модель. Получатель информации имеет определенное представление о возможных наступлениях некоторых событий. Эти представления в общем случае выражаются вероятностями, с которыми наступает то или иное событие. Общая мера неопределенности (энтропия) характеризуется некоторой математической зависимостью от совокупности этих вероятностей. Количество информации в сообщении определяется тем, насколько уменьшится эта мера после получения сообщения.

Пример. Вероятность выбора одной карты из колоды в 32 карты равна 1/32 (априорная вероятность). Производя выбор, мы устраняем априорную неопределенность. Если теперь определить количество информации как меру устраненной неопределенности, то и полученную в результате выбора информацию можно охарактеризовать числом 32.

В теории информации используется другая мера, введенная Хартли, а именно

,

где m – число возможных равновероятных выборов. Заметим, что при , . Оценка количества информации в примере

.

Данная оценка характеризует число двоичных вопросов, с двумя возможными ответами: «Да» или «Нет», отвечая на которые можно угадать одну карту из колоды. Эти ответы в рассматриваемом примере можно записать последовательностью из пяти двоичных символов. Занумеруем карты по порядку. Пусть загаданная карта имеет номер 10. Для того, чтобы угадать карту зададим вопросы:

  1. Номер карты больше, либо равен 16? (Если «Да», то 1, если «Нет», то 0. В нашем случае в двоичную последовательность запишем 0).

  2. Номер карты больше, либо равен 8? (Если «Да», то 1, если «Нет», то 0. В нашем случае в двоичную последовательность запишем 1).

  3. Номер карты больше, либо равен 12? (Если «Да», то 1, если «Нет», то 0. В нашем случае в двоичную последовательность запишем 0).

  4. Номер карты больше, либо равен 10? (Если «Да», то 1, если «Нет», то 0. В нашем случае в двоичную последовательность запишем 1).

  5. Номер карты больше, либо равен 11? (Если «Да», то 1, если «Нет», то 0. В нашем случае в двоичную последовательность запишем 0). Тогда делаем вывод, что число больше, либо равно 10, но строго меньше 11, т.е. номер карты равен 10. Получившаяся двоичная последовательность: 01010.

К .Шеннону принадлежит обобщение формулы на случай, когда Н зависит не только от количества сообщений m, но и от вероятностей возможных выборов сообщений. Сначала вводится формула собственной (или индивидуальной информации):

,

здесь ‑ вероятность выбора -го сообщения. Общая формула, оценивающая среднее количество информации, имеет вид:

В частности, если , получаем формулу Хартли.

В алгоритмической теории предлагается алгоритмический метод оценки количества информации. Любому сообщению можно приписать количественную характеристику, отражающую сложность (размер) программы, которая воспроизводит данное сообщение. Например, сообщение 00…0 воспроизводится простой программой, а последовательность 0101…01 – более сложной. Случайная последовательность не может быть воспроизведена никакой «короткой программой». Разумеется, число языков программирования велико. Для определенности при оценке информации в сообщении задаются некоторой вычислительной машиной (например, абстрактной машиной Тьюринга), а количественная характеристика информации определяется как минимальное число состояний машины Тьюринга, которые требуются для воспроизведения данного сообщения.

Мы рассмотрели два подхода к определению информации. Приведем кратко еще несколько определений.

В технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов. В кибернетике под информацией понимают ту часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы (Н. Винер).

Или совсем коротко:

  • Информация – это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

  • Информация – это отрицание энтропии.

  • Информация – это мера сложности структур.

  • Информация – это отраженное разнообразие.

  • Информация – это содержание процесса отражения.

  • Информация – это вероятность выбора.

Домашнее задание: Обсудить введенные понятия информации. Каким ученым принадлежат эти определения? Какое из определений вам наиболее близко? Дать свое определение информации.

Информационная технология — это совокупность методов и устройств, используемых людьми для обработки информации.

Человечество занималось обработкой информации тысячи лет. Первые информационные технологии основывались на использовании счётов и письменности. Около пятидесяти лет назад началось исключительно быстрое развитие этих технологий, что в первую очередь связано с появлением компьютеров.

История развития вычислительной техники

Среди простейших счетных приспособлений особое место занял АБАК, получивший в древнем мире широкое распространение. Абак появился в 5 –6 веке до Н.Э. Европа считала на нем примерно до 12 века, пока Мухамед аль–Хорезми не опубликовал правила сложения и вычитания чисел в современной десятичной системе счисления. Сделать абак совсем несложно, достаточно разлиновать столбцами дощечку или просто нарисовать столбцы на песке. Каждому из столбцов присваивалось значение разряда чисел: разряд единиц, десятков, сотен, тысяч. Числа обозначались набором камешков, ракушек, веточек и т.п., раскладываемых по различным столбцам – разрядам. Добавляя или убирая из соответствующих столбцов то или иное количество камешков, можно было производить сложение или вычитание и даже умножение и деление как многократное сложение и вычитание соответственно. Похожи на абак по принципу действия русские счеты. В них вместо столбцов – горизонтальные направляющие с косточками. На Руси счетами пользовались просто виртуозно. Они были незаменимым инструментом торговцев, приказчиков, чиновников. Из России этот простой и полезный прибор проник и в Европу.

Первым механическим счетным устройством была счетная машина, построенная в 1642 году выдающимся французским ученым Блезом Паскалем. Механический «компьютер» Паскаля мог складывать и вычитать. «Паскалина» – так называли машину – состояла из набора вертикально установленных колес с нанесенными на них цифрами от 0 до 9. При полном обороте колеса оно сцеплялось с соседним колесом и поворачивало его на одно деление. Число колес определяло число разрядов – так, два колеса позволяли считать до 99, три – уже до 999, а пять колес делали машину «знающей» даже такие большие числа как 99999. Считать на «Паскалине» было очень просто.

В 1673 году немецкий математик и философ Готфрид Вильгельм Лейбниц создал механическое счетное устройство, которое не только складывало и вычитало, но и умножало и делило. Машина Лейбница была сложнее «Паскалины». Числовые колеса, теперь уже зубчатые, имели зубцы девяти различных длин, и вычисления производились за счет сцепления колес. Именно несколько видоизмененные колеса Лейбница стали основой массовых счетных приборов – арифмометров, которыми широко пользовались не только в ХIХ веке, но и сравнительно недавно наши дедушки и бабушки.

На протяжении 18 века появились новые, более совершенные модели, но принцип механического управления вычислительными операциями оставался тем же. Идея программирования вычислительных операций пришла из часовой промышленности. Старинные башенные часы были настроены так, чтобы в заданное время включать механизм, связанный с системой колоколов. Такое программирование было жестким – одна и та же операция выполнялась в одно и то же время. Идея гибкого программирования механических устройств с помощью перфорированной бумажной ленты впервые была реализована в 1804 году в ткацком станке, после чего оставался только один шаг до программного управления вычислительными операциями.

Этот шаг был сделан выдающимся английским математиком и изобретателем Чарльзом Бэббиджем в его Аналитической машине. Ее особенностью стало то, что в ней впервые был реализован принцип разделения информации на команды и данные. В 1834 г. Бэббидж предлагает проект новой аналитической машины, которая должна выполнять серию определенных арифметических действий, в соответствии с инструкциями, задаваемыми человеком. Хотя машина Бэббиджа и не была закончена, ее создатель выдвинул идеи, которые и легли в основу устройства всех современных компьютеров. Бэббидж пришел к выводу – вычислительная машина должна иметь устройство для хранения чисел, предназначенных для вычислений, а также указаний (команд) машине о том, что с этими числами делать. Следующие одна за другой команды получили название «программы» работы компьютера, а устройство для хранения информации назвали «памятью» машины. Однако хранение чисел даже вместе с программой – только полдела. Главное – машина должна производить с этими числами указанные в программе операции. Бэббидж понял, что для этого в машине должен быть специальный вычислительный блок – процессор. Именно по такому принципу и устроены современные компьютеры.

Научные идеи Бэббиджа увлекли дочь знаменитого английского поэта лорда Джорджа Байрона – графиню Аду Августу Лавлейс. В то время еще не было таких понятий, как программирование для ЭВМ, но тем не менее Аду Лавлейс по праву считают первым в мире программистом. Многими понятиями, введенными Адой Лавлейс в описаниях тех первых в мире программ, широко пользуются современные программисты. В честь первого в мире программиста назван один из самых современных и совершенных языков компьютерного программирования – АДА.

Двоичная система Лейбница. Возможность представления любых чисел (да и не только чисел) двоичными цифрами впервые была предложена Лейбницем в 1666г. Он пришел к двоичной системе счисления, занимаясь исследованиями философской концепции единства и борьбы противоположностей. Попытка представить мироздание в виде взаимодействия двух начал и применить к его исследованию методы чистой математики подтолкнули Лейбница к изучению свойств двоичного представления данных с помощью нулей и единиц.

1847 – 1854 гг. английский математик Джордж Буль разработал принципиально новый математический аппарат на базе двоичной системы счисления (Булева алгебра), где были заложены основы двоичного кодирования информации.

1890 г. Герман Холлерит, американский изобретатель, смог полностью воплотить идеи Бэббиджа, создав вычислительное устройство для решения сложных статистических задач – статистический табулятор. Информация кодировалась на специальных перфокартах, которые размещались в определенном порядке. (Россия купила в 1897 г. эту машину для обработки результатов переписи населения). Переключатель – металлическая иголка, которая, попадая в отверстие перфокарты, замыкала эл. сеть. В 1924 году (за 5 лет до смерти) Холлерит создал свою фирму, которая позднее получила название International Business Machines Corporation (IBM).

1936–1938 гг. Клод Шеннон связал двоичное кодирование информации, булеву алгебру с работой электрических схем.

1936 г. Алан Тьюринг ‑ американский математик разработал концепцию абстрактной вычислительной машины, в которой была показана принципиальная возможность решения автоматами любой задачи при условии ее алгоритмизации (машина Тьюринга). Его идеи были воплощены позже в реальных вычислительных машинах.

Заслуги в разработке логической схемы первых ЭВМ принадлежат Джону фон Нейману (1903 – 1957), американскому математику. Он первым выделил основные устройства ЭВМ: арифметико-логическое устройство, устройство управления, устройство памяти и устройство ввода-вывода. Такая структура компьютера получила название классической архитектуры фон Неймана.

5 июля 1943 года ученые Пенсильванского университета в США подписывают контракт, по которому они создают первый в мире электронный компьютер, известный под названием ЭНИАК. Ничего не значащее на русском языке название произошло от сокращения довольно длинного английского наименования – «электронный цифровой компьютер». 15 февраля 1946 года ЭНИАК официально ввели в строй.

Первые компьютеры считали в тысячи раз быстрее механических счетных машин, но были очень громоздкими. ЭВМ занимала помещение размером 9х15 м, весила около 30 тонн и потребляла 150 киловатт в час. В такой ЭВМ было около 18 тысяч электронных ламп.

В 1975 году проданы первые персональные компьютеры в виде комплектов для самостоятельной сборки.

В 1977 году выпущены первые законченные ПК, оснащенные дисплеем и клавиатурой.

В 1979 году созданы первые программы для пользователей ПК. Отныне с персональным компьютером может работать каждый. Ранее это могли делать только специалисты, способные самостоятельно создавать программы.

В 1981 году американская компания IBM выпускает первый компьютер серии IBM PC. Вскоре и другие компании начинают создавать компьютеры на базе этой модели. Их совместимость с IBM PC означает, что на них можно использовать одни и те же программы.