Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
информатика.docx
Скачиваний:
19
Добавлен:
11.04.2015
Размер:
96.77 Кб
Скачать

1.Информатика, экономическая информатика (история возникновения, определение, предмет и объект дисциплины).

Информатика— это техническая наука, систематизирующая приемы создания, хранения, воспроизведения, обработки и передачи данных средствами вычислительной техники, а также принципы функционирования этих средств и методы управления ими.

Предмет:

· аппаратное обеспечение средств вычислительной техники;

· программное обеспечение средств вычислительнорй техники;

· средства взаимодействия аппаратного и программного обеспечения;

· средства взаимодействия человека с аппаратными и программными средствами;

Основная задача— систематизация приемов и методов работы с аппаратными и программными средствами вычислительной техники

История развития информатики.

Начальный этап— освоение человеком развитой устной речи.

Второй этап— возникновение письменности.

Третий этап— книгопечатание.

Четвертый этап— успехи точных наук, возникновение мощных средств связи (радио, телефон, телеграф), развитие телевидения, фотографии, кино,запись информации на магнитные носители.

Начало истории— разработка первых ЭВМ

2. Структура информатики. Место информатики в системе наук.

Структура информатике.

Оставляя в стороне прикладные информационные технологии, опишем составные части «ядра» современной информатики. Каждая из этих частей может рассматриваться как относительно самостоятельная научная дисциплина; взаимоотношения между ними примерно такие же, как между алгеброй, геометрией и математическим анализом в классической математике - все они хоть и самостоятельные дисциплины, но, несомненно, части одной науки.

Теоретическая информатика - часть информатики, включающая ряд математических разделов. Она опирается на математическую логику и включает такие разделы как теория алгоритмов и автоматов, теория информации и теория кодирования, теория формальных языков и грамматик, исследование операций и другие. Этот раздел информатики использует математические методы для общего изучения процессов обработки информации.

Вычислительная техника - раздел, в котором разрабатываются общие принципы построения вычислительных систем. Речь идет не о технических деталях и электронных схемах (это лежит за пределами информатики как таковой), а о принципиальных решениях на уровне, так называемой, архитектуры вычислительных (компьютерных) систем, определяющей состав, назначение, функциональные возможности и принципы взаимодействия устройств. Примеры принципиальных, ставших классическими решений в этой области - неймановская архитектура компьютеров первых поколений, шинная архитектура ЭВМ старших поколений, архитектура параллельной (многопроцессорной) обработки информации.

Программирование - деятельность, связанная с разработкой систем программного обеспечения. Здесь отметим лишь основные разделы современного программирования: создание системного программного обеспечения и создание прикладного программного обеспечения. Среди системного - разработка новых языков программирования и компиляторов к ним, разработка интерфейсных систем (пример - общеизвестная операционная оболочка и система Windows). Среди прикладного программного обеспечения общего назначения самые популярные - система обработки текстов, электронные таблицы (табличные процессоры), системы управления базами данных. В каждой области предметных приложений информатики существует множество специализированных прикладных программ более узкого назначения.

Информационные системы - раздел информатики, связанный с решением вопросов по анализу потоков информации в различных сложных системах, их оптимизации, структурировании, принципах хранения и поиска информации. Информационно-справочные системы, информационно-поисковые системы, гигантские современные глобальные системы хранения и поиска информации (включая широко известный Internet) в последнее десятилетие XX века привлекают внимание все большего круга пользователей. Без теоретического обоснования принципиальных решений в океане информации можно просто захлебнуться. Известным примером решения проблемы на глобальном уровне может служить гипертекстовая поисковая система WWW, а на значительно более низком уровне - справочная система, к услугам которой мы прибегаем, набрав телефонный номер 09'.

Искусственный интеллект - область информатики, в которой решаются сложнейшие проблемы, находящиеся на пересечении с психологией, физиологией, лингвистикой и другими науками. Как научить компьютер мыслить подобно человеку? - Поскольку мы далеко не все знаем о том, как мыслит человек, исследования по искусственному интеллекту, несмотря на полувековую историю, все еще не привели к решению ряда принципиальных проблем. Основные направления разработок, относящихся к этой области - моделирование рассуждений, компьютерная лингвистика, машинный перевод, создание экспертных систем, распознавание образов и другие. От успехов работ в области искусственного интеллекта зависит, в частности, решение такой важнейшей прикладной проблемы как создание интеллектуальных интерфейсных систем взаимодействия человека с компьютером, благодаря которым это взаимодействие будет походить на межчеловеческое и станет более эффективным.

МЕСТО ИНФОРМАТИКИ В СИСТЕМЕ НАУК

Рассмотрим место науки информатики в традиционно сложившейся системе наук (технических, естественных, гуманитарных и т.д.). В частности, это позволило бы найти место общеобразовательного курса информатики в ряду других учебных предметов.

Напомним, что по определению А.П.Ершова информатика- «фундаментальная естественная наука». Академик Б.Н.Наумов определял информатику «как естественную науку, изучающую общие свойства информации, процессы, методы и средства ее обработки (сбор, хранение, преобразование, перемещение, выдача)».

Уточним, что такое фундаментальная наука и что такое естественная наука. К фундаментальным принято относить те науки, основные понятия которых носят общенаучный характер, используются во многих других науках и видах деятельности. Нет, например, сомнений в фундаментальности столь разных наук как математика и философия. В этом же ряду и информатика, так как понятия «информация», «процессы обработки информации» несомненно имеют общенаучную значимость.

Естественные науки - физика, химия, биология и другие - имеют дело с объективными сущностями мира, существующими независимо от нашего сознания. Отнесение к ним информатики отражает единство законов обработки информации в системах самой разной природы - искусственных, биологических, общественных.

3. Термин информация. Виды информации.

Информация, (information - англ.) - совокупность фактов, явлений, событий, представляющих интерес, подлежащих регистрации и обработке. Это понятие объединяет двух партнеров: источник и приемник (потребитель) информации. В роли каждого из них может выступать объект науки и техники, общества и природы, животные и люди. Именно при их взаимодействии рождается информация. В теории информации под этим термином понимается такое сообщение, которое содержит факты, неизвестные ранее потребителю и дополняющие его представление об изучаемом или анализируемом объекте (процессе, явлении). Другими словами, информация - сведения, которые должны снять в той или иной степени существующую у потребителя до их получения неопределенность, расширить его понимание объекта полезными (для потребителя) сведениями. По Шеннону (Клод Шеннон - американский инженер и математик, родоначальник теории информации.), информация - это снятая неопределенность.

ВИДЫ И СВОЙСТВА ИНФОРМАЦИИ

Возможны несколько видов классификации информации

1. По способам восприятия:

· Визуальная

· Аудиальная

· Тактильная

· Обонятельная

· Вкусовая

2. По форме представления:

· Текстовая

· Числовая

· Графическая

· Музыкальная

Комбинированная

3. По общественному значению :

3.2. Массовая

· - обыденная

· - общественно-политическая

· - эстетическая

3.2. Специальная

· - научная

· - производственная

· - техническая

· - управленческая

3.3.Личная

· - знания

· - умения

· - навыки

· - интуиция

Виды информации связаны со способом восприятия

У человека пять органов чувств, с их помощью человек получает информацию о внешнем мире: зрение, слух, обоняние, вкус, осязание.

Органы чувств Вид информации

· Зрение Визуальная

· Слух Аудиальная

· Обоняние Обонятельная

· Вкус Вкусовая

· Осязание тактильная

Практически около 90% информации человек получает при помощи органов зрения (визуальный), примерно 9% -- при помощи органов слуха и только 1% при помощи остальных органов чувств (обоняния, вкуса, осязания).

Виды информации по форме представления.

* Текстовая

* Числовая

* Звуковая

* Мультимедийная (комбинированная)

Виды информации по общественному значению.

* личная (знания, умения, навыки, интуиция);

* массовая (общественная, обыденная, эстетическая);

* специальная (научная, производственная, техническая, управленческая).

Предметы, процессы, явления материального или нематериального свойства, рассматриваемые с точки зрения их информационных свойств, называются информационными объектами.

Свойства информации

Информация нужна для того, чтобы принимать правильные решения. Рассмотрим свойства информации, т. е. ее качественные признаки.

1. Объективность информации.

Информация -- это отражение внешнего мира, а он существует независимо от нашего сознания и желания. Поэтому в качестве свойства информации можно выделить ее объективность. Информация объективна, если она не зависит от чьего-либо мнения, суждения.

Пример:

Сообщение «На улице тепло» несет субъективную информацию, а сообщение «На улице 22' С» -- объективную (если термометр исправен).

Объективную информацию можно получить с помощью исправных датчиков, измерительных приборов. Но, отражаясь в сознании конкретного человека, информация перестает быть объективной, так как преобразовывается (в большей или меньшей степени) в зависимости от мнения, суждения, опыта, знания или «вредности» конкретного субъекта.

2. Достоверность информации.

Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация помогает принять нам правильное решение. Недостоверной информация может быть по следующим причинам:

* преднамеренное искажение (дезинформация);

* искажение в результате воздействия помех («испорченный телефон»);

* когда значение реального факта преуменьшается или преувеличивается (слухи, рыбацкие истории).

3. Полнота информации.

Информацию можно назвать полной, если ее достаточно для понимания и принятия решения.

Пример:

Мечта историка -- иметь полную информацию о минувших эпохах. Но историческая информация никогда не бывает полной, и полнота информации уменьшается по мере удаленности от нас исторической эпохи. Даже события, происходившие на наших глазах, не полностью документируются, многое забывается, и воспоминания подвергаются искажению. Неполная информация может привести к ошибочному выводу или решению.

4. Актуальность (своевременность) информации

Актуальность -- важность, существенность для настоящего времени. Только вовремя полученная информация может принести необходимую пользу. Неактуальной информация может быть по двум причинам: она может быть устаревшей (прошлогодняя газета) либо незначимой, ненужной (например, сообщение о том, что в Италии снижены цены на 5%).

5. Полезность или бесполезность (ценность) информации

Так как границы между этими понятиями нет, то следует говорить о степени полезности применительно к нуждам конкретных людей. Полезность информации оценивается по тем задачам, которые мы можем решить с ее помощью.

Самая ценная для нас информация -- достаточно полезная, полная, объективная, достоверная и новая. С точки зрения техники свойство полезности рассматривать бессмысленно, так как задачи машине ставит человек.

* Информация объективна, если она не зависит от чьего-либо мнения, суждения.

* Информация достоверна, если она отражает истинное положение дел.

* Информация полна, если ее достаточно для понимания и принятия решения.

* Информация актуальна (своевременна), если она важна, существенна для настоящего времени.

* Полезность информации оценивается по тем задачам, которые мы можем решить с ее помощью.

* Информация понятна, если она выражена на языке, доступном для получателя.

4. Количество информации. Единицы измерения количества информации.

Единицы измерения информации служат для измерения объёма информации — величины, исчисляемой логарифмически. Это означает, что когда несколько объектов рассматриваются как один, количество возможных состояний перемножается, а количество информации — складывается. Не важно, идёт речь о случайных величинах в математике, регистрах цифровой памяти в технике или в квантовых системах в физике.

Чаще всего измерение информации касается объёма компьютерной памяти и объёма данных, передаваемых по цифровым каналам связи.

Первичные единицы

Объём информации можно представлять как логарифм количества возможных состояний.

Наименьшее целое число, логарифм которого положителен — это 2. Соответствующая ему единица — бит — является основой исчисления информации в цифровой технике.

Единица, соответствующая числу 3 (трит) равна log23≈1,585 бита, числу 10 (хартли) — log210≈3.322 бита.

Такая единица как нат (nat), соответствующая натуральному логарифму применяется в инженерных и научных расчётах. В вычислительной технике она практически не применяется, так как основание натуральных логарифмов не является целым числом.

В проводной технике связи (телеграф и телефон) и радио исторически впервые единица информации получила обозначение бод

Единицы, производные от бита

Целые количества бит отвечают количеству состояний, равному степеням двойки.

Особое название имеет 4 бита — ниббл (полубайт, тетрада, четыре двоичных разряда), которые вмещают в себя количество информации, содержащейся в одной шестнадцатеричной цифре.

Байт

Следующей по порядку популярной единицей информации является 8 бит, или байт (о терминологических тонкостях написано ниже). Именно к байту (а не к биту) непосредственно приводятся все большие объёмы информации, исчисляемые в компьютерных технологиях.

Такие величины как машинное слово и т. п., составляющие несколько байт, в качестве единиц измерения почти никогда не используются.

Килобайт

Для измерения больших количеств байтов служат единицы «килобайт» = [1024] байт и «Кбайт» (кибибайт, kibibyte) = 1024 байт (о путанице десятичных и двоичных единиц и терминов см. ниже). Такой порядок величин имеют, например:

Сектор диска обычно равен 512 байтам то есть половине килобайта, хотя для некоторых устройств может быть равен одному или двум кибибайт.

Классический размер «блока» в файловых системах UNIX равен одному Кбайт (1024 байт).

«Страница памяти» в процессорах x86 (начиная с модели Intel 80386) имеет размер 4096 байт, то есть 4 Кбайт.

Объём информации, получаемой при считывании дискеты «3,5″ высокой плотности» равен 1440 Кбайт (ровно); другие форматы также исчисляются целым числом Кбайт.

Мегабайт

Единицы «мегабайт» = 1024 килобайт = [1048576] байт и «Мбайт»[3] (мебибайт, mebibyte) = 1024 Кбайт = 1 048 576 байт применяются для измерения объёмов носителей информации.

Объём адресного пространства процессора Intel 8086 был равен 1 Мбайт.

Оперативную память и ёмкость CD-ROM меряют двоичными единицами (мебибайтами, хотя их так обычно не называют), но для объёма НЖМД десятичные мегабайты были более популярны.

Современные жёсткие диски имеют объёмы, выражаемые в этих единицах минимум шестизначными числами, поэтому для них применяются гигабайты.

Гигабайт

Единицы «гигабайт» = 1024 мегабайт = [1048576] килобайт = [1073741824] байт и «Гбайт»[3] (гибибайт, gibibyte) = 1024 Мбайт = 230 байт измеряют объём больших носителей информации, например жёстких дисков. Разница между двоичной и десятичной единицами уже превышает 7 %.

Размер 32-битного адресного пространства равен 4 Гбайт ≈ 4,295 Мбайт. Такой же порядок имеют размер DVD-ROM и современных носителей на флеш-памяти. Размеры жёстких дисков уже достигают сотен и тысяч гигабайт.

Для исчисления ещё больших объёмов информации имеются единицы терабайт и тебибайт (1012 и 240 байт соответственно), петабайт и пебибайт (1015 и 250 байт соответственно) и т. д.

5. Свойства информации. Операции с данными

Свойства информации

Как и всякий объект, информация обладает свойствами. Характерной отличительной особенностью информации от других объектов природы и общества, является дуализм: на свойства информации влияют как свойства исходных данных, составляющих ее содержательную часть, так и свойства методов, фиксирующих эту информацию.

С точки зрения информатики наиболее важными представляются следующие общие качественные свойства: объективность, достоверность, полнота, точность, актуальность, полезность, ценность, своевременность, понятность, доступность, краткость и пр.

  1. Объективность информации. Объективный – существующий вне и независимо от человеческого сознания. Информация – это отражение внешнего объективного мира. Информация объективна, если она не зависит от методов ее фиксации, чьего-либо мнения, суждения.

Пример.Сообщение «На улице тепло» несет субъективную информацию, а сообщение «На улице 22°С» – объективную, но с точностью, зависящей от погрешности средства измерения. Объективную информацию можно получить с помощью исправных датчиков, измерительных приборов. Отражаясь в сознании человека, информация может искажаться (в большей или меньшей степени) в зависимости от мнения, суждения, опыта, знаний конкретного субъекта, и, таким образом, перестать быть объективной.

  1. Достоверность информации. Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация помогает принять нам правильное решение. Недостоверной информация может быть по следующим причинам:

  • преднамеренное искажение (дезинформация) или непреднамеренное искажение субъективного свойства;

  • искажение в результате воздействия помех («испорченный телефон») и недостаточно точных средств ее фиксации.

  1. Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению.

  2. Точность информацииопределяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п.

5. Актуальность информации– важность для настоящего времени, злободневность, насущность. Только вовремя полученная информация может быть полезна.

6. Полезность (ценность) информации. Полезность может быть оценена применительно к нуждам конкретных ее потребителей и оценивается по тем задачам, которые можно решить с ее помощью.

Самая ценная информация– объективная, достоверная, полная, и актуальная. При этом следует учитывать, что и необъективная, недостоверная информация (например, художественная литература), имеет большую значимость для человека. Социальная (общественная) информация обладает еще и дополнительными свойствами:

  • имеет семантический (смысловой) характер, т. е. понятийный, так как именно в понятиях обобщаются наиболее существенные признаки предметов, процессов и явлений окружающего мира.

  • имеет языковую природу (кроме некоторых видов эстетической информации, например изобразительного искусства). Одно и то же содержание может быть выражено на разных естественных (разговорных) языках, записано в виде математических формул и т. д.

С течением времени количество информации растет, информация накапливается, происходит ее систематизация, оценка и обобщение. Это свойство назвали ростом и кумулированием информации. (Кумуляция – от лат. cumulatio – увеличение, скопление).

Старение информации заключается в уменьшении ее ценности с течением времени. Старит информацию не само время, а появление новой информации, которая уточняет, дополняет или отвергает полностью или частично более раннюю. Научно-техническая информация стареет быстрее, эстетическая (произведения искусства) – медленнее.

Логичность, компактность, удобная форма представления облегчает понимание и усвоение информации.

Операции с данными

В отличие от операций с атрибутами, операции с данными по определению имеют размер 8 Кбайт. (Это размер блока данных, определенный NFS. Сравнительно недавно анонсированная версия протокола NFS+ допускает блоки данных размером до 4 Гбайт. Однако это существенно не меняет саму природу операций с данными). Кроме того, в то время как для каждого файла имеется только один набор атрибутов, количество блоков данных размером по 8 Кбайт в одном файле может быть большим (потенциально может достигать несколько миллионов). Для большинства типов NFS-серверов блоки данных обычно не кэшируются и, таким образом, обслуживание соответствующих запросов связано с существенным потреблением ресурсов системы. В частности, для выполнения операций с данными требуется значительно большая полоса пропускания сети: каждая операция с данными включает пересылку шести больших пакетов по Ethernet (двух по FDDI). В результате вероятность перегрузки сети представляет собой гораздо более важный фактор при рассмотрении операций с данными.

Как это ни удивительно, но в большинстве существующих систем доминируют операции с атрибутами, а не операции с данными. Если клиентская система NFS хочет использовать файл, хранящийся на удаленном файл-сервере, она выдает последовательность операций поиска (lookup) для определения размещения файла в удаленной иерархии каталогов, за которой следует операция getattr для получения маски прав доступа и других атрибутов файла; наконец, операция чтения извлекает первые 8 Кбайт данных. Для типичного файла, который находится на глубине четырех или пяти уровней подкаталогов удаленной иерархии, простое открывание файла требует пяти-шести операций NFS. Поскольку большинство файлов достаточно короткие (в среднем для большинства систем менее 16 Кбайт) для чтения всего файла требуется меньше операций, чем для его поиска и открывания. Последние исследования компании Sun обнаружили, что со времен операционной системы BSD 4.1 средний размер файла существенно увеличился от примерно 1 Кбайт до немногим более 8 Кбайт.

Для определения корректной конфигурации сервера NFS прежде всего необходимо отнести систему к одному из двух классов в соответствии с доминирующей рабочей нагрузкой для предполагаемых сервисов NFS: с интенсивными операциями над атрибутами или с интенсивными операциями над данными.

6. Система счисления. Позиционная система счисления. Представление произвольного числа в системе счисления по основанию P.

Система счисления(нумерация лат. numeratio) — метод обозначения чисел посредством знаков — цифр, или слов. Система обозначения, основанная на цифрах — письменная нумерация. Система обозначения, основанная на словах — словесная нумерация.

Системы счисления разделяют на позиционные и непозиционные. Различие позиционных систем счисления от непозиционных состоит в том, что значение цифр в позиционной системе зависит от позиции в числе, а в непозиционной — не зависит. Примеры позиционных систем счисления: десятичная система счисления, основанная на арабских цифрах; древневавилонянская (60-ричная); система Майя (20-ричная). Примеры непозиционных систем счисления — римская, старая и новая греческая, славянская.

Позиционные и многие непозиционные системы счисления имеют так называемое основание. Основание также определяет деления чисел на порядки. Числа, меньшие основания, называются числами первого порядка, до второй степени основания (n·n) — числами второго и так далее. Числа соотносящиеся на основание считаются различающимися на один порядок.

Системы счисления, обладающие основанием имеют регулярную структуру названий — числа, отличающиеся на порядок, образуются подобным образом. Для позиционных систем счисления основание означает, во сколько раз изменится значение цифры смещении на одну позицию — 3 и 30 в десятичной системе отличаются в десять раз. Непозиционные системы счисления обычно включают знаки для чисел, меньших основания и и помноженных на целую степень основания, например римская — I=1, V=5, X=10, L=50, C=100 — цифры I к X и к C, относятся как основание системы счисления, аналогично относятся V и L.

Системы счисления также различающиеся тем, как образуются числа внутри порядка. Один очевидный способ образования — повторение символа единицы необходимое количество раз — он используется во многих древних системах — египетской, вавилонянской, старой греческой, римской и других. Такой подход обеспечивает использование достаточно малое количество различных симоволов, но является весьма расточительным. Нередким в таких системах было использование дополнительного основания, меньшего основного. Числа, одного порядка формировались аналогично с использованием дополнительного основания. Это позволяло значительно сократить количество повторений. Дополнительными основаниями часто служили 5 и 10. Так, отдельный символ для обозначения 5 есть в старой греческой и римской нумерации — Γ и V, а также у майя. 5 в качестве промежуточного основания связан со счётом по пальцам, и обозначал, что закончились пальцы на руке (или ноге). Промежуточное основание 10 использовалось в древневавилонской клинописной 60-чной системе счисления.

Другой способ, использовавшийся в более новых — использование различных символов. Такой подход используется широко используемой десятичной системе счисления — цифры 0, 1, 2, 3, 4, 5, 6, 7, 8, 9. Такой же подход применялся в новогреческой и заимствованной от неё древнерусской. В них в качестве цифр использовались буквы — в новой греческой это греческий алфавит, в древнерусской — кириллица или глаголица, причём цифровые значения букв кириллица полностью соответствовали таковым в греческом, у глаголицы отличались. Эти системы использовали 27 букв со значениями: от 1 до 9 через один, 10 по 90 через десяток, 100 по 900 — через сотню.

Позиционная система счисления. Представление произвольного числа в системе счисления по основанию P.

В позиционных системахсчисления вес каждой цифры изменяется в зависимости от ее позиции в последовательности цифр, изображающих число. Любая позиционная система характеризуется своим основанием. Основание позиционной системы счисления - это количество различных знаков или символов, используемых для изображения цифр в данной системе. За основание можно принять любое натуральное число - два, три, четыре, шестнадцать и т.д. Следовательно, возможно бесконечное множество позиционных систем.

Основные позиционные системы счисления

Десятичная система счисления

Пришла в Европу из Индии, где она появилась не позднее VI века н.э. В этой системе 10 цифр: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, но информацию несет не только цифра, но и место, на котором цифра стоит (то есть ее позиция). В десятичной системе счисления особую роль играют число 10 и его степени: 10, 100, 1000 и т.д. Самая правая цифра числа показывает число единиц, вторая справа - число десятков, следующая - число сотен и т.д. Позиции цифр в записи числа называют его разрядами. В десятичной системе счисления вес каждого разряда в 10 раз больше веса предыдущего. Всякое число в десятичной системе счисления можно представить в виде суммы различных целых степеней десяти с соответствующими коэффициентами аi (0-9), взятыми из алфавита данной системы счисления.

Например: 245,83 = 2 * 102 + 4 * 101 + 5 * 100 + 8 * 10-1 + 3 * 10-2. Любое десятичное позиционное число N можно представить с помощью целых степеней десяти, взятых с соответствующими коэффициентами, т.е.

N10 = am * 10m + am-1 * 10m-1 + …+ a1*10+ +a0 * 100 + a-1 * 10-1 +…+ a-n * 10-n.

Двоичная система счисления.

В этой системе всего две цифры - 0 и 1. Особую роль здесь играет число 2 и его степени: 2, 4, 8 и т.д. Самая правая цифра числа показывает число единиц, следующая цифра - число двоек, следующая - число четверок и т.д. Двоичная система счисления позволяет закодировать любое натуральное число - представить его в виде последовательности нулей и единиц. В двоичном виде можно представлять не только числа, но и любую другую информацию: тексты, картинки, фильмы и аудиозаписи. Инженеров двоичное кодирование привлекает тем, что легко реализуется технически. Наиболее простыми с точки зрения технической реализации являются двухпозиционные элементы, например, электромагнитное реле, транзисторный ключ.

Восьмеричная система счисления.

В этой системе счисления 8 цифр: 0, 1, 2, 3, 4, 5, 6, 7. Цифра 1, указанная в самом младшем разряде, означает - как и в десятичном числе - просто единицу. Та же цифра 1 в следующем разряде означает 8, в следующем 64 и т.д. Число 100 (восьмеричное) есть не что иное, как 64 (десятичное). Чтобы перевести в двоичную систему, например, число 611 (восьмеричное), надо заменить каждую цифру эквивалентной ей двоичной триадой (тройкой цифр). Легко догадаться, что для перевода многозначного двоичного числа в восьмеричную систему нужно разбить его на триады справа налево и заменить каждую триаду соответствующей восьмеричной цифрой.

Шестнадцатеричная система счисления.

Запись числа в восьмеричной системе счисления достаточно компактна, но еще компактнее она получается в шестнадцатеричной системе. В качестве первых 10 из 16 шестнадцатеричных цифр взяты привычные цифры 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, а вот в качестве остальных 6 цифр используют первые буквы латинского алфавита: A, B, C, D, E, F. Цифра 1, записанная в самом младшем разряде, означат просто единицу. Та же цифра 1 в следующем - 16 (десятичное), в следующем - 256 (десятичное) и т.д. Цифра F, указанная в самом младшем разряде, означает 15 (десятичное). Перевод из шестнадцатеричной системы в двоичную и обратно производится аналогично тому, как это делается для восьмеричной системы.

7. Двоичное кодирование информации.

Система кодирования данных двоичным кодом основана на предоставлении данных последовательностью двух знаков – 0 и 1. Эти знаки называют двоичными цифрами - битами. Одним битом могут быть выражены два понятия: 0 или 1 (да или нет, чёрное или белое, истина или ложь и т.п.). Если количество битов увеличить до двух, то уже можно выразить четыре различных понятия. Тремя битами можно закодировать восемь различных значений.

Кодирование целых и действительных чисел.

Целые числа кодируются двоичным кодом просто – берётся целое число и делится пополам до тех пор, пока частное не будет равно единице. Совокупность остатков от каждого деления, записанная справа налево вместе с последним частным, и образует двоичный аналог десятичного числа.

Для кодирования целых чисел от 0 до 255 достаточно иметь 8 разрядов двоичного кода (8 бит). 16 бит позволяют закодировать целые числа от 0 до 65535, а 24 – уже более 16,5 миллионов различных значений.

Для кодирования действительных чисел используют 80-разрядное кодирование. При этом число предварительно преобразовывают в нормализованную форму:

3,1414926 = 0,31415926 101

300 000 = 0,3 Ч 106

Первая часть числа называется мантиссой, а вторая – характеристикой. Большую часть из 80 бит отводят для хранения мантиссы (вместе со знаком) и некоторое фиксированное количество разрядов отводят для хранения характеристики.

Кодирование текстовых данных.

Также с помощью двоичного кода можно кодировать текстовую информацию, если каждому символу алфавита сопоставить определённое целое число. Восьми двоичных разрядов достаточно для кодирования 256 различных символов. Это хватит, чтобы выразить различными комбинациями восьми битов все символы английского и русского языков, как строчные, так и прописные, а также знаки препинания, символы основных арифметических действий и некоторые общепринятые специальные символы.

Для английского языка введена в действие система кодирования ASCII. В системе ASCII закреплены две таблицы кодирования базовая и расширенная. Базовая таблица закрепляет значения кодов от 0 до 127, а расширенная относится к символам с номерами от 128 до 255.

Компанией Microsoft была введена кодировка символов русского языка - Windows-1251.

Другая распространённая кодировка носит название КОИ-8 (код обмена информацией, восьмизначный). Сегодня кодировка КОИ – 8 имеет широкое распространение в компьютерных сетях на территории России и в российском секторе Интернета.

Международный стандарт, в котором предусмотрена кодировка символов русского языка, носит названия ISO. На практике данная кодировка используется редко.

Универсальная система кодирования текстовых данных.

Чтобы увеличить диапазон возможных кодов, нужно кодировать символы не восьмиразрядными двоичными числами, а числами с большим разрядом. Такая система, основанная на 16-разрядном кодировании символов, получила название универсальной – UNICODE. Шестнадцать разрядов позволяют обеспечить уникальные коды для 65 536 различных символов – этого поля вполне достаточно для размещения в одной таблице символов большинства языков планеты.

Сейчас наблюдается постепенный перевод документов и программных средств на универсальную систему кодирования.

Кодирование графических данных

Растровое кодировани (предоставление изображения в виде точек) позволяет использовать двоичный код для представления графических данных. Общепринятым на сегодняшний день считается представление чёрно-белых иллюстраций в виде комбинации точек с 256 градациями серого цвета, и, таким образом, для кодирования яркости любой точки обычно достаточно восьмиразрядного двоичного числа.

Для кодирования цветных графических изображений применяется принцип декомпозиции произвольного цвета на основные составляющие. В качестве таких составляющих используют три основные цвета: красный, зелёный и синий. Считается, что любой цвет, видимый человеческим глазом, можно получить механического смешения этих цветов.

Режим представления цветной графики с использованием 24 двоичных разрядов называется полноцветным (True Color).

Если уменьшить количество двоичных разрядов, используемых для кодирования цвета каждой точки, то можно сократить объём данных, но при этом диапазон кодируемых цветов заметно сокращается. Кодирование цветной графики 16-разрядными двоичными числами называется режимом High Color.

При кодировании информации о цвете с помощью восьми бит данных можно передать только 256 оттенков. Такой метод кодирования цвета называется индексным.

Кодирование звуковой информации.

Два основных метода кодирования звуковой информации двоичным кодом:

- метод FM. Теоретически любой сложный звук можно разложить на последовательность простейших гармонических сигналов разных частот, каждый из которых представляет собой правильную синусоиду, а, следовательно, может быть описан числовыми параметрами, т.е. кодом. В природе звуковые сигналы имеют непрерывный спектр, т.е. являются аналоговыми. Их разложение в гармонические ряды и представление в виде дискретных цифровых сигналов выполняют специальный устройства – аналогово-цифровые преобразователи (АЦП). Обратное преобразование для воспроизведения звука, закодированного числовым кодом, выполняют цифро-аналоговые преобразователи (ЦАП). При таких преобразованиях неизбежны потери информации, связанные с методом кодирования, поэтому качество звукозаписи обычно получается не вполне удовлетворительным.

- метод таблично-волнового (Wave-Table) синтеза. Он лучше соответствует современному уровню развития техники. В заранее подготовленных таблицах хранятся образцы звуков для множества различных музыкальных инструментах. В технике такие образцы называют сэмплами. Числовые коды выражают тип инструмента, номер его модели, высоту тона, продолжительность и интенсивность звука, динамику его изменения, некоторые параметры среды, в которой происходит звучание, а также прочие параметры, характеризующие особенности звучания. Поскольку в качестве образцов исполняются реальные звуки, то его качество получается очень высоким и приближается к качеству звучания реальных музыкальных инструментов.

8. Эволюция ЭВМ по поколениям.

Начиная с 1950 года, каждые 7-10 лет кардинально обновлялись конструктивно-технологические и программно-алгоритмические принципы построения и использования ЭВМ. В связи с этим правомерно говорить о поколениях вычислительных машин. Условно каждому поколению можно отвести 10 лет.

1. Первое поколение эвм 1950-1960-е годы

Логические схемы создавались на дискретных радиодеталях и электронных вакуумных лампах с нитью накала. В оперативных запоминающих устройствах использовались магнитные барабаны, акустические ультразвуковые ртутные и электромагнитные линии задержки, электронно-лучевые трубки (ЭЛТ). В качестве внешних запоминающих устройств применялись накопители на магнитных лентах, перфокартах, перфолентах и штекерные коммутаторы.

Программирование работы ЭВМ этого поколения выполнялось в двоичной системе счисления на машинном языке, то есть программы были жестко ориентированы на конкретную модель машины и "умирали" вместе с этими моделями.

В середине 1950-х годов появились машинно-ориентированные языки типа языков символического кодирования (ЯСК), позволявшие вместо двоичной записи команд и адресов использовать их сокращенную словесную (буквенную) запись и десятичные числа. В 1956 году был создан первый язык программирования высокого уровня для математических задач - язык Фортран, а в 1958 году - универсальный язык программирования Алгол.

ЭВМ, начиная от UNIVAC и заканчивая БЭСМ-2 и первыми моделями ЭВМ "Минск" и "Урал", относятся к первому поколению вычислительных машин.

2. Второе поколение эвм: 1960-1970-е годы

Логические схемы строились на дискретных полупроводниковых и магнитных элементах (диоды, биполярные транзисторы, тороидальные ферритовые микротрансформаторы). В качестве конструктивно-технологической основы использовались схемы с печатным монтажом (платы из фольгированного гетинакса). Широко стал использоваться блочный принцип конструирования машин, который позволяет подключать к основным устройствам большое число разнообразных внешних устройств, что обеспечивает большую гибкость использования компьютеров. Тактовые частоты работы электронных схем повысились до сотен килогерц.

Стали применяться внешние накопители на жестких магнитных дисках1 и на флоппи-дисках - промежуточный уровень памяти между накопителями на магнитных лентах и оперативной памятью.

В 1964 году появился первый монитор для компьютеров - IBM 2250. Это был монохромный дисплей с экраном 12 х 12 дюймов и разрешением 1024 х 1024 пикселов. Он имел частоту кадровой развертки 40 Гц.

Создаваемые на базе компьютеров системы управления потребовали от ЭВМ более высокой производительности, а главное - надежности. В компьютерах стали широко использоваться коды с обнаружением и исправлением ошибок, встроенные схемы контроля.

В машинах второго поколения были впервые реализованы режимы пакетной обработки и телеобработки информации.

Первой ЭВМ, в которой частично использовались полупроводниковые приборы вместо электронных ламп, была машина SEAC (Standarts Eastern Automatic Computer), созданная в 1951 году.

В начале 60-х годов полупроводниковые машины стали производиться и в СССР.

3. Третье поколение эвм: 1970-1980-е годы

В 1958 году Роберт Нойс изобрел малую кремниевую интегральную схему, в которой на небольшой площади можно было размещать десятки транзисторов. Эти схемы позже стали называться схемами с малой степенью интеграции (Small Scale Integrated circuits - SSI). А уже в конце 60-х годов интегральные схемы стали применяться в компьютерах.

Логические схемы ЭВМ 3-го поколения уже полностью строились на малых интегральных схемах. Тактовые частоты работы электронных схем повысились до единиц мегагерц. Снизились напряжения питания (единицы вольт) и потребляемая машиной мощность. Существенно повысились надежность и быстродействие ЭВМ.

В оперативных запоминающих устройствах использовались миниатюрнее ферритовые сердечники, ферритовые пластины и магнитные пленки с прямоугольной петлей гистерезиса. В качестве внешних запоминающих устройств широко стали использоваться дисковые накопители.

Появились еще два уровня запоминающих устройств: сверхоперативные запоминающие устройства на триггерных регистрах, имеющие огромное быстродействие, но небольшую емкость (десятки чисел), и быстродействующая кэш-память.

Начиная с момента широкого использования интегральных схем в компьютерах, технологический прогресс в вычислительных машинах можно наблюдать, используя широко известный закон Мура. Один из основателей компании Intel Гордон Мур в 1965 году открыл закон, согласно которому количество транзисторов в одной микросхеме удваивается через каждые 1,5 года.

Ввиду существенного усложнения как аппаратной, так и логической структуры ЭВМ 3-го поколения часто стали называть системами.

Так, первыми ЭВМ этого поколения стали модели систем IBM (ряд моделей IBM 360) и PDP (PDP 1). В Советском Союзе в содружестве со странами Совета Экономической Взаимопомощи (Польша, Венгрия, Болгария, ГДР и др1.) стали выпускаться модели единой системы (ЕС) и системы малых (СМ) ЭВМ.

В вычислительных машинах третьего поколения значительное внимание уделяется уменьшению трудоемкости программирования, эффективности исполнения программ в машинах и улучшению общения оператора с машиной. Это обеспечивается мощными операционными системами, развитой системой автоматизации программирования, эффективными системами прерывания программ, режимами работы с разделением машинного времени, режимами работы в реальном времени, мультипрограммными режимами работы и новыми интерактивными режимами общения. Появилось и эффективное видеотерминальное устройство общения оператора с машиной - видеомонитор, или дисплей.

Большое внимание уделено повышению надежности и достоверности функционирования ЭВМ и облегчению их технического обслуживания. Достоверность и надежность обеспечиваются повсеместным использованием кодов с автоматическим обнаружением и исправлением ошибок (корректирующие коды Хеммин-га и циклические коды).

Модульная организация вычислительных машин и модульное построение их операционных систем создали широкие возможности для изменения конфигурации вычислительных систем. В связи с этим возникло новое понятие "архитектура" вычислительной системы, определяющее логическую организацию этой системы с точки зрения пользователя и программиста.