Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
шпора информатика.docx
Скачиваний:
9
Добавлен:
24.09.2019
Размер:
322.97 Кб
Скачать

1) Понятие информатики (И); области распространения; изучаемые вопросы; связь с другими науками; задачи И. и используемые для их решения научные положения; научные направления И.

Информа́тика — наука о способах получения, накопления, хранения, преобразования, передачи, защиты и использования информации. Она включает дисциплины, относящиеся к обработке информации в вычислительных машинах и вычислительных сетях: как абстрактные, вроде анализа алгоритмов, так и довольно конкретные, например, разработка языков программирования. Отдельной наукой информатика была признана лишь в 1970-х; до этого она развивалась в составе математики, электроники и других технических наук. Некоторые начала информатики можно обнаружить даже в лингвистике. С момента своего признания отдельной наукой информатика разработала собственные методы и терминологию. методологией. (Несмотря на широчайшее применение в современных естественных науках математического и компьютерного моделирования.)

2. Понятие информации; представление и интерпретация информации; сигнал, виды сигналов, регистрация сигналов; данные; носитель информации; методы восприятия информации; информационный процесс; первичная и вторичная информация.

Информация— значимые сведения о чём-либо, когда форма их представления также является информацией, то есть имеет форматирующую функцию в соответствии с собственной природой.В современной науке рассматриваются два вида информации:Объективная (первичная) информация — свойство материальных объектов и явлений (процессов) порождать многообразие состояний, которые посредством взаимодействий (фундаментальные взаимодействия) передаются другим объектам и запечатлеваются в их структуре[1].Субъективная (семантическая,смысловая, вторичная) информация – смысловое содержание объективной информации об объектах и процессах материального мира, сформированное сознанием человека с помощью смысловых образов (слов, образов и ощущений) и зафиксированное на каком-либо материальном носителе.В бытовом смысле информация — сведения об окружающем мире и протекающих в нём процессах, воспринимаемые человеком или специальным устройством. С точки зрения информатики, информация обладает рядом фундаментальных свойств: новизна, актуальность, достоверность, объективность, полнота, ценность и др.Носители информации – среда или физическое тело для передачи, хранения и воспроизведения информации. (Это электрические, световые, тепловые, звуковые, радио сигналы, магнитные и лазерные диски, печатные издания, фотографии и тд.)Можно выделить следующие подходы к определению информации:

* традиционный (обыденный) - используется в информатике: Информация – это сведения, знания, сообщения о положении дел, которые человек воспринимает из окружающего мира с помощью органов чувств (зрения, слуха, вкуса, обоняния, осязания).

* вероятностный - используется в теории об информации: Информация – это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределённости и неполноты знаний. Классификация информации:По способам восприятия - Визуальная, Аудиальная, Тактильная, Обонятельная, вкусовая;По формам представления –Текстовая, Числовая, Графическая, Музыкальная,Комбинированная и тд.По общественному значению: Массовая - обыденная, общественно-политическая, эстетическаяСпециальная - научная, техническая, управленческая, производственнаяЛичная – наши знания, умения, интуиция

Основные свойства информации:

Объективность – не зависит от чего-либо мнения

Достоверность – отражает истинное положение дел

Полнота – достаточна для понимания и принятия решения

Актуальность – важна и существенна для настоящего времени

Ценность (полезность, значимость)- обеспечивает решение поставленной задачи, нужна для того чтобы принимать правильные решения

Понятность (ясность)– выражена на языке, доступном получателю

Кроме этого информация обладает еще следующими свойствами:

1) Атрибутивные свойства (атрибут – неотъемлемая часть чего-либо). Важнейшими среди них являются:- дискретность (информация состоит из отдельных частей, знаков) и непрерывность (возможность накапливать информацию)

2) Динамические свойства связаны с изменением информации во времени:

- копирование – размножение информации

- передача от источника к потребителю

- перевод с одного языка на другой

- перенос на другой носитель

- старение (физическое – носителя, моральное – ценностное)

3) Практические свойства - информационный объем и плотность

Информация храниться, передается и обрабатывается в символьной (знаковой) форме. Одна и та же информация может быть представлена в различной форме:1) Знаковой письменной, состоящей из различных знаков среди которых выделяют символьную в виде текста, чисел, спец. символов; графическую; табличную и тд.; 2) В виде жестов или сигналов; 3) В устной словесной форме (разговор)Представление информации осуществляется с помощью языков, как знаковых систем, которые строятся на основе определенного алфавита и имеют правила для выполнения операций над знаками.Язык – определенная знаковая система представления информации. Существуют:Естественные языки – разговорные языки в устной и письменной форме. В некоторых случаях разговорную речь могут заменить язык мимики и жестов, язык специальных знаков (например, дорожных);Формальные языки – специальные языки для различных областей человеческой деятельности, которые характеризуются жестко зафиксированным алфавитом, более строгими правилами грамматики и синтаксиса.Полное число символов алфавита принято называть мощностью алфавита.Да́нные (калька от англ. data) — представление фактов и идей в формализованном виде, пригодном для передачи и обработки в некотором информационном процессе.Сигнал (в теории информации и связи) — материальный носитель информации, используемый для передачи сообщений в системе связи. Сигнал может генерироваться, но его приём не обязателен, в отличие от сообщения, которое должно быть принято принимающей стороной, иначе оно не является сообщением. Сигналом может быть любой физический процесс, параметры которого изменяются в соответствии с передаваемым сообщением.

По физической природе носителя информации:

электрические;

электромагнитные;

оптические;

акустическиеи др.;

По способу задания сигнала:

регулярные (детерминированные), заданные аналитической функцией;нерегулярные (случайные), принимающие произвольные значения в любой момент времени. Для описания таких сигналов используется аппарат теории вероятностей.В зависимости от функции, описывающей параметры сигнала, выделяют аналоговые, дискретные, квантованные и цифровые сигналы:непрерывные (аналоговые), описываемые непрерывной функцией;дискретные, описываемые функцией отсчётов, взятых в определённые моменты времени;квантованные по уровню;дискретные сигналы, квантованные по уровню (цифровые).Информационный процесс — процесс получения, создания, сбора, обработки, накопления, хранения, поиска, распространения и использования информации.[1]В результате исполнения информационных процессов осуществляются информационные права и свободы, выполняются обязанности соответствующими структурами производить и вводить в обращение информацию, затрагивающую права и интересы граждан, а также решаются вопросы защиты личности, общества, государства от ложной информации и дезинформации, защиты информации и информационных ресурсов ограниченного доступа от несанкционированного доступа.[2]С точки зрения информационного права, при выполнении информационных процессов возникают общественные отношения, подлежащие правовому регулированию в информационной сфере.Вторичная информация – информация уже существующая, т.е. уже собранная для других целей.Первичная информация – данные, собранные впервые для конкретной цели. Исследование лучше начинать со сбора вторичных данных, потому что они служат отправной точкой исследования, обходятся дешевле и более доступны. К вторичным источникам информации относятся: – внутренние данные (отчеты о прибылях и убытках. Балансовые отчеты, показатели быта, отчеты коммивояжеров, отчеты о предыдущих исследованиях); – внешние данные (издания государственных учреждений, периодика, книги. Различают три наиболее распространенных способа сбора первичной информации: - наблюдение – способ, при котором исследователь ведет надзор за людьми и обстановкой, больше всего подходит для поисковых исследований; - эксперимент – отбор информации среди сопоставимых групп субъектов (создание для этих групп разной обстановки, контроль за переменными составляющими и установление значимости наблюдаемых различий), цель данного исследование – выявление причинно-следственных связей; - опрос – способ, позволяющий исследователям получить прямую информацию о знаниях, убеждениях и мнениях людей, о степени их удовлетворенности от покупки, а также способ, позволяющий определить популярность товара в глазах аудитории, больше всего подходит для проведения описательных исследований.

Информационные процессы - это процессы, связанные с получением, хранением, обработкой и передачей информации (т.е. действия, выполняемые с информацией). Т.е. это процессы, в ходе которых изменяется содержание информации или форма её представления.

3. Этапы развития информационных процессов; информационное общество и информационные ресурсы; преимущества развития информационных процессов.

Признак деления – виды инструментария технологии1-й этап (до второй половины XIX в.) – “ручная” информационная технология, инструментарий которой составляли: перо, чернильница, книга. Коммуникации осуществлялись ручным способом путем переправки через почту писем, пакетов, депеш. Основная цель технологии – представление информации в нужной форме. 2-й этап (с конца XIX в.) – “механическая” технология, инструментарий которой составляли: пишущая машинка, телефон, диктофон, оснащенная более совершенными средствами доставки почта. Основная цель технологии – представление информации в нужной форме более удобными средствами. 3-й этап (40-60-е гг. ХХ в.) – “электрическая” технология, инструментарий которой составляли: большие ЭВМ и соответствующее программное обеспечение, электрические пишущие машинки, ксероксы, портативные диктофоны. Изменяется цель технологии. Акцент в информационной технологии начинает перемещаться с формы представления информации на формирование ее содержания. 4-й этап (с начала 7-х гг.) – “электронная” технология, основным инструментарием которой становятся большие ЭВМ и создаваемые на их базе автоматизированные системы управления (АСУ) и информационно-поисковые системы (ИПС), оснащенные широким спектром базовых и специализированных программных комплексов. Центр тяжести технологии еще более смещается на формирование содержательной стороны информации для управленческой среды различных сфер общественной жизни, особенно на организацию аналитической работы. Множество объективных и субъективных факторов не позволили решить стоящие перед новой концепцией информационной технологии поставленные задачи. Однако был приобретен опыт формирования содержательной стороны управленческой информации и подготовлена профессиональная, психологическая и социальная база для перехода на новый этап развития технологии. 5-й этап (с середины 80-х гг.) – “компьютерная” (“новая”) технология основным инструментарием которой является персональный компьютер с широким спектром стандартных программных продуктов разного назначения. НА этом этапе происходит процесс персонализации АСУ, который проявляется в создании систем поддержки принятия решений определенными специалистами..Информационное общество — концепция постиндустриального общества; новая историческая фаза развития цивилизации, в которой главными продуктами производства являются информация и знания.Отличительные черты:увеличение роли информации, знаний и информационных технологий в жизни общества;возрастание числа людей, занятых информационными технологиями, коммуникациями и производством информационных продуктов и услуг, рост их доли в валовом внутреннем продукте;нарастающая информатизация общества с использованием телефонии, радио, телевидения, сети Интернет, а также традиционных и электронных СМИ;создание глобального информационного пространства, обеспечивающего: (а) эффективное информационное взаимодействие людей, (б) их доступ к мировым информационным ресурсам и (в) удовлетворение их потребностей в информационных продуктах и услугах;развитие электронной демократии, информационной экономики, электронного государства, электронного правительства, цифровых рынков, электронных социальных и хозяйствующих сетей;Информационные ресурсы – это отдельные документы, массивы документов, которые входят в состав информационных систем.

4. Свойства информации: объективные и субъективные, качество, содержательность и защищенность. Информационный процесс и его этапы; передача информации: протокол, сообщение, канал связи.

.Качество информации (Information quality) – совокупность свойств содержательной информации, характеризующих степень её соответствия потребностям (целям, ценностям) пользователей (средств автоматизации, персонала, и др.) Выделяют внутреннее качество (присущее собственно информации и сохраняющееся при её переносе в другую эргасистему, подсистему) и внешнее (присущее информации, находящейся или используемой только в конкретной эргасистеме, подсистеме), которые определяются, главным образом (см. также рис. 1.2), следующими иерархиями общих общих свойств, соответственно: <содержательность>:= {<существенность (идентичность, полнота)>, <кумулятивность (гомоморфизм, избирательность)>}; <защищённость>:= {<достоверность (помехоустойчивость, помехозащищённость)>, <сохранность (целостность, готовность)>, <конфиденциальность (доступность, скрытность, имитостойкость)>}.Информационные процессы - это процессы, связанные с получением, хранением, обработкой и передачей информации (т.е. действия, выполняемые с информацией). Т.е. это процессы, в ходе которых изменяется содержание информации или форма её представления.Передача информации — физический процесс, посредством которого осуществляется перемещение информации в пространстве. Записали информацию на диск и перенесли в другую комнату. Данный процесс характеризуется наличием следующих компонентов:Источник информации.Приёмник информации.Носитель информации.Среда передачи.передача информации - заблаговременно организованное техническое мероприятие, результатом которого становится воспроизведение информации, имеющейся в одном месте, условно называемом "источником информации", в другом месте, условно называемом "приёмником информации"..Для осуществления п.и. необходимо наличие, с одной стороны, так называемого "запоминающего устройства", или "носителя", обладающего возможностью перемещения в пространстве и времени между "источником" и "приёмником". С другой стороны, необходимы заранее известные "источнику" и "приемнику" правила и способы нанесения и снятия информации с "носителя". С третьей стороны, "носитель" должен продолжать существовать как таковой к моменту прибытия в пункт назначения. (к моменту окончания снятия с него информации "приёмником")В качестве "носителей" на современном этапе развития техники используются как вещественно-предметные, так и волново-полевые объекты физической природы. Носителями могут быть при определённых условиях и сами передаваемые "информационные" "объекты" (виртуальные носители).П.и. в повседневной практике осуществляется по описанной схеме как "вручную", так и с помощью различных автоматов. Во множестве разновидностей технической реализации.При построении систем п.и. "передаваться" может не только информация о физических объектах, но и информация о подготовленных к передаче носителях. Таким образом организуется иерархическая "среда передачи" с любой глубиной вложенности. (Не путать со средой распространения волновых носителей.)Протокол передачи данных — набор соглашений интерфейса логического уровня, которые определяют обмен данными между различными программами. Эти соглашения задают единообразный способ передачи сообщений и обработки ошибок при взаимодействии программного обеспечения разнесённой в пространстве аппаратуры, соединённой тем или иным интерфейсом.Стандартизированный протокол передачи данных также позволяет разрабатывать интерфейсы (уже на физическом уровне), не привязанные к конкретной аппаратной платформе и производителю (например, USB, Bluetooth).

5.Синтаксическая мера измерения информации: объем данных, бит, дит, количество информации, мера неопределенности, априорная и апостериорная неопределенность, энтропия, формула Шеннона, формула Хартли .

Синтаксическая мера информации. Эта мера оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.Количество информации I на синтаксическом уровне определяется с помощью понятия неопределенности состояния (энтропии) системы.Объем данных Vд в сообщении измеряется количеством символов (разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес и соответственно меняется единица измерения данных:

- в двоичной системе счисления единица измерения – бит (bit – binary digit) или более укрупненная единица байт, равная 8 бит. Сообщение, записанное двоичным кодом 10111011, имеет объем данных 8 бит или 1 байт.

- в десятичной системе счисления единица измерения – дит (десятичный разряд). Сообщение, записанное числом 275903 имеет объем данных 6 дит.

Бит — базовая единица измерения количества информации, равная количеству информации, содержащемуся в опыте, имеющем два равновероятных исхода

- Дит в десятичной системе счисления единица измерения – дит (десятичный разряд).

Количество информации можно рассматривать как меру уменьшения неопределенности знания при получении информационных сообщений. За единицу количества информации принимается такое количество информации, которое содержится в информационном сообщении, уменьшающем неопределенность знания в два раза. Такая единица названа битом.

Информацио́нная энтропи́я — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.

В 1928 г. американский инженер Р. Хартли предложил научный подход к оценке сообщений. Предложенная им формула имела следующий вид:

I = log2 K ,

Где К - количество равновероятных событий; I - количество бит в сообщении, такое, что любое из К событий произошло. Тогда K=2I.

Иногда формулу Хартли записывают так:

I = log2 K = log2 (1 / р) = - log2 р,

т. к. каждое из К событий имеет равновероятный исход р = 1 / К, то К = 1 / р.

В 1948 г. американский инженер и математик К Шеннон предложил формулу для вычисления количества информации для событий с различными вероятностями.

Если I - количество информации,

К - количество возможных событий,

рi - вероятности отдельных событий,

то количество информации для событий с различными вероятностями можно определить по формуле:

I = - Sum рi log2 рi,

где i принимает значения от 1 до К.

Формулу Хартли теперь можно рассматривать как частный случай формулы Шеннона:

I = - Sum 1 / К log2 (1 / К) = I = log2 К.

При равновероятных событиях получаемое количество информации максимально.

6. Синтаксическая мера измерения информации: формула Хартли, содержательный подход, алфавитный подход, алфавит, мощность алфавита, количество информации в тексте, вероятностный подход, качественная и количественная связь между информацией и вероятностью, коэффициент информативности, избыточность .

Синтаксическая мера информации. Эта мера оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.Количество информации I на синтаксическом уровне определяется с помощью понятия неопределенности состояния (энтропии) системы.Объем данных Vд в сообщении измеряется количеством символов (разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес и соответственно меняется единица измерения данных:Содержательный подход к измерению информации.Для человека информация — это знания человека. Рассмотрим вопрос с этой точки зрения.Получение новой информации приводит к расширению знаний..Получение всяких знаний должно идти от простого к сложному. И тогда каждое новое сообщение будет в то же время понятным, а значит, будет нести информацию для человека.Сообщение несет информацию для человека, если содержащиеся в нем сведения являются для него новыми и понятными.Очевидно, различать лишь две ситуации: «нет информации» — «есть информация» для измерения информации недостаточно. Нужна единица измерения, тогда мы сможем определять, в каком сообщении информации больше, в каком — меньше.Единица измерения информации была определена в науке, которая называется теорией информации. Эта единица носит название «бит». Ее определение звучит так:Сообщение, уменьшающее неопределенность знаний в два раза, несет 1 бит информации.

в двоичной системе счисления единица измерения – бит (bit – binary digit) или более укрупненная единица байт, равная 8 бит. Сообщение, записанное двоичным кодом 10111011, имеет объем данных 8 бит или 1 байт.

в десятичной системе счисления единица измерения – дит (десятичный разряд). Сообщение, записанное числом 275903 имеет объем данных 6 дит.

Алфавитный подход к определению количества информацииПри алфавитном подходе к определению количества информации отвлекаются от содержания информации и рассматривают информационное сообщение как последовательность знаков определенной знаковой системы

.Информационная емкость знака двоичной знаковой системы составляет 1 бит.Чем большее количество знаков содержит алфавит знаковой системы, тем большее количество информации несет один знак. Количество информации в сообщении. Сообщение состоит из последовательности знаков, каждый из которых несет определенное количество информации.Если знаки несут одинаковое количество информации, то количество информации Ic в сообщении можно подсчитать, умножив количество информации Iз, которое несет один знак, на длину кода (количество знаков в сообщении) К:Ic = Iз × K

Так, каждая цифра двоичного компьютерного кода несет информацию в 1 бит. Следовательно, две цифры несут информацию в 2 бита, три цифры - в 3 бита и т. д. Количество информации в битах равно количеству цифр двоичного компьютерного кода. Вероятностный подход

Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной .кости, имеющей N граней (наиболее распространенным является случай шестигранной кости: N = 6). Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1,2,... N.- Введем в рассмотрение численную величину, измеряющую неопределенность -энтропию (обозначим ее Н). Величины N и Н связаны между собой некоторой функциональной зависимостью:H = f (N), (1.1)

а сама функция f является возрастающей, неотрицательной и определенной (в рассматриваемом нами примере) для N = 1, 2,... 6.Рассмотрим процедуру бросания кости более подробно:1) готовимся бросить кость; исход опыта неизвестен, т.е. имеется некоторая неопределенность; обозначим ее H1;2) кость брошена; информация об исходе данного опыта получена; обозначим количество этой информации через I;3) обозначим неопределенность данного опыта после его осуществления через H2. За количество информации, которое получено в ходе осуществления опыта, примем разность неопределенностей «до» и «после» опыта:

- I = H1 - H2 (1.2)

Очевидно, что в случае, когда получен конкретный результат, имевшаяся неопределенность снята (Н2 = 0), и, таким образом, количество полученной информации совпадает с первоначальной энтропией. Иначе говоря, неопределенность, заключенная в опыте, совпадает с информацией об исходе этого опыта.Следующим важным моментом является определение вида функции f в формуле (1.1). Если варьировать число граней N и число бросаний кости (обозначим эту величину через М), общее число исходов (векторов длины М, состоящих из знаков 1,2,.... N) будет равно N в степени М:X=NM. (1.3)Так, в случае двух бросаний кости с шестью гранями имеем: Х = 62 = 36. Фактически каждый исход Х есть некоторая пара (X1, X2), где X1 и X2 - соответственно исходы первого и второго бросаний (общее число таких пар - X).Ситуацию с бросанием М раз кости можно рассматривать как некую сложную систему, состоящую из независимых друг от друга подсистем - «однократных бросаний кости». Энтропия такой системы в М раз больше, чем энтропия одной системы (так называемый «принцип аддитивности энтропии»):f(6M) = M ∙ f(6)Данную формулу можно распространить и на случай любого N:

F(NM) = M ∙ f(N) (1.4)

Прологарифмируем левую и правую части формулы (1.3): ln X = M ∙ ln N, М = ln X/1n M. Подставляем полученное для M значение в формулу (1.4):

Обозначив через К положительную константу , получим: f(X) = К ∙ lп Х, или, с учетом (1.1), H=K ∙ ln N. Обычно принимают К = 1 / ln 2. Таким образом

H = log2 N. (1.5)

Это - формула Хартли.

КОЭФФИЦИЕНТ ИНФОРМАЦИОННЫЙ (ИЗБЫТОЧНОСТЬ ШЕНОНА) — мера отличия распределения от равномерного распределения: , где n — число разрядов в распределении, H(х) — энтропия.К.и.представляет собой удобную и простую оценку степени отсортированности осад.п., которая ранее измерялась коэф.сортировки; аналогичное применение К.и.имеет в геохимии.

7. Семантическая мера измерения информации: тезаурус, зависимость количества семантической информации от полноты тезауруса, коэффициент содержательности, мера информации прагматического уровня

Семантическая мера информации. Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение. Для этого используют понятие тезаурус пользователя.

Тезаурус – это совокупность сведений, которыми располагает пользователь или система.В зависимости от соотношений между смысловым содержанием информации S и тезаурусом пользователя Sp изменяется количество семантической информации Ic, воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус.График зависимости количества семантической информации, воспринимаемой потребителем, от его тезауруса Ic = f(Sp)Два предельных случая, когда количество семантической информации Ic равно 0:

- при Sp » 0 пользователь не воспринимает, не понимает поступающую информацию;

- при Sp ® ¥ пользователь все знает, и поступающая информация ему не нужна.

Максимальное количество Ic потребитель приобретает при согласовании ее смыслового содержания S со своим тезаурусом Sp (Sp = Sp opt), когда поступающая информация понятна пользователю и несет ему ранее неизвестные (отсутствующее в тезаурусе) сведения. Следовательно новых знаний, получаемых пользователем, является величиной относительной. Одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным для пользователя некомпетентного. При оценке содержательного аспекта информации необходимо стремиться к согласованию величин S и Sp.Прагматическая мера информации. Эта мера определяет полезность информации (ценность) для достижения пользователем поставленной цели, Эта мера также величина относительная, обусловленная особенностями использования этой информации в той или иной системе.Пример. В экономической системе ценность информации можно определить приростом экономического эффекта ее функционирования, достигнутым благодаря использованию этой информации для управления системой.

8. Представление данных в памяти ЭВМ: язык, азбука, универсальность системы кодирования, двоичное кодирование, ячейка памяти, разряд, байт, адрес, машинное слово

Для представления информации в памяти ЭВМ (как числовой так и не числовой) используется двоичный способ кодирования.Элементарная ячейка памяти ЭВМ имеет длину 8 бит (1 байт). Каждый байт имеет свой номер (его называют адресом). Наибольшую последовательность бит, которую ЭВМ может обрабатывать как единое целое, называют машинным словом. Длина машинного слова зависит от разрядности процессора и может быть равной 16, 32 битам и т.д.Для кодирования символов достаточно одного байта. При этом можно представить 256 символов (с десятичными кодами от 0 до 255). В некоторых случаях при представлении в памяти ЭВМ чисел используется смешанная двоично-десятичная система счисления, где для хранения каждого десятичного знак нужен полубайт (4 бита) и десятичные цифры от 0 до 9 представляются соответствующими двоичными числами от 0000 до 1001.. ЯЧЕЙКА ПАМЯТИ ЭВМ совокупность запоминающих элементов или участок запоминающей среды, предназнач. для хранения одного машинного слова (числа), имеющие индивидуальный адрес или канал для обращения. Обычно Я. п. - составная часть накопит, блока запоминающего устройства (ЗУ); общее их число определяет ёмкость ЗУ. Я. п. характеризуется длиной, т. е. Макс. кол-вом двоичных разрядов (битов), к-рое одновременно может в ней храниться. Длина Я. п. обычно равна длине машинного слова или кратна ей. В большинстве случаев обращение к Я. п. производится определением временно-пространств. координат по присвоенному ей адресу или машинному номеру. Я. п. всегда находится в одном из возможных своих состояний л устойчиво сохраняет его до тех пор, пока внеш. воздействие не вызовет перехода её в др. состояние. Я. п. в ЭВМ также служат регистры и счётчики арифметич.устройства и устройства управления, одноразрядные ячейки для хранения управляющих сигналов, наборные поля на пульте управления и т. Д

МАШИННОЕ слово - упорядоченный набор цифр, букв и т. д., хранящихся в памяти ЭВМ и воспринимаемых при обработке устройствами машины как единое слово, команда.

9. Системы счисления (СС): позиционные и непозиционные, основание СС, преимущества и недостатки двоичной СС, представление числа в виде полинома, алфавит 2, 8, 10 и 16 СС, длина числа в позиционной СС, представление первых 16 чисел в различных СС

Система счисле́ния — символический метод записи чисел, представление чисел с помощью письменных знаков.

Система счисления:даёт представления множества чисел (целых и/или вещественных);даёт каждому числу уникальное представление (или, по крайней мере, стандартное представление);отражает алгебраическую и арифметическую структуру чисел.

Системы счисления подразделяются на позиционные, непозиционные и смешанные.Позиционными называются системы счисления, в которых значение цифры зависит от ее места (позиции) в записи числа. Непозиционными называются системы счисления, в которых значение цифры не зависит от ее места (позиции) в записи числа.

Наиболее употребляемыми в настоящее время позиционными системами являются:

1 — единичная[1] (счёт на пальцах, зарубки, узелки «на память» и др.);

2 — двоичная (в дискретной математике, информатике, программировании);

3 — троичная;

8 — восьмеричная;

10 — десятичная (используется повсеместно);

12 — двенадцатеричная (счёт дюжинами);

16 — шестнадцатеричная (используется в программировании, информатике);

60 — шестидесятеричная (единицы измерения времени, измерение углов и, в частности, координат, долготы и широты).В позиционных системах чем больше основание системы, тем меньшее количество разрядов (то есть записываемых цифр) требуется при записи числа.

Непозиционные системы счисленияВ непозиционных системах счисления величина, которую обозначает цифра, не зависит от положения в числе. При этом система может накладывать ограничения на положение цифр, например, чтобы они были расположены в порядке убывания.

Достоинства двоичной системы счисления

Достоинства двоичной системы счисления заключаются в простоте реализации процессов хранения, передачи и обработки информации на компьютере.

Для ее реализации нужны элементы с двумя возможными состояниями, а не с десятью.

Представление информации посредством только двух состояний надежно и помехоустойчиво.

Возможность применения алгебры логики для выполнения логических преобразований.

Двоичная арифметика проще десятичной.

Недостатки двоичной системы счисления

Итак, код числа, записанного в двоичной системе счисления представляет собой последовательность из 0 и 1. Большие числа занимают достаточно большое число разрядов.

Быстрый рост числа разрядов - самый существенный недостаток двоичной системы счисления.

Двоичная система счисления — позиционная система счисления с основанием 2. В этой системе счисления, числа записываются с помощью двух символов (0 и 1).

Восьмери́чная систе́ма счисле́ния — позиционная целочисленная система счисления с основанием 8. Для представления чисел в ней используются цифры от 0 до 7.

Восьмеричная система часто используется в областях, связанных с цифровыми устройствами. Характеризуется лёгким переводом восьмеричных чисел в двоичные и обратно, путём замены восьмеричных чисел на триплеты двоичных. Ранее широко использовалась в программировании и вообще компьютерной документации, однако в настоящее время почти полностью вытеснена шестнадцатеричной.

Десяти́чная систе́ма счисле́ния — позиционная система счисления по целочисленному основанию 10. Одна из наиболее распространённых систем. В ней используются цифры 1, 2, 3, 4, 5, 6, 7, 8, 9, 0, называемые арабскими цифрами. Предполагается, что основание 10 связано с количеством пальцев рук у человека.

Шестнадцатеричная система счисления (шестнадцатеричные числа) — позиционная система счисления по целочисленному основанию 16. Обычно в качестве шестнадцатеричных цифр используются десятичные цифры от 0 до 9 и латинские буквы от A до F для обозначения цифр от 1010 до 1510, то есть (0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F).

Таблица соответствия цифр в различных системах счисления

Перевод десятичных чисел в другие системы счисления

Перевод целых чисел.

1) Основание новой системы счисления выразить в десятичной системе счисления и все последующие действия производить в десятичной системе счисления;

  1. последовательно выполнять деление данного числа и получаемых неполных частных на основание новой системы счисления до тех пор, пока не получим неполное частное, меньшее делителя;

  2. полученные остатки, являющиеся цифрами числа в новой системе счисления, привести в соответствие с алфавитом новой системы счисления;

  3. составить число в новой системе счисления, записывая его, начиная с последнего частного.

  4. Перевод дробных чисел.

  5. 1) Основание новой системы счисления выразить в десятичной системе и все последующие действия производить в десятичной системе счисления;

  6. 2) последовательно умножать данное число и получаемые дробные части произведений на основание новой системы до тех пор, пока дробная часть произведения не станет равной нулю или не будет достигнута требуемая точность представления числа в новой системе счисления;

  7. 3) полученные целые части произведений, являющиеся цифрами числа в новой системе счисления, привести в соответствие с алфавитом новой системы счисления;

  8. 4)составить дробную часть числа в новой системе счисления, начиная с целой части первого произведения.

  9. Перевод смешанных чисел, содержащих целую и дробную части, осуществляется в два этапа. Целая и дробная части исходного числа переводятся отдельно по соответствующим алгоритмам. В итоговой записи числа в новой системе счисления целая часть отделяется от дробной запятой (точкой) восьмеричную и в шестнадцатеричную системы счисления. Из рассмотренных выше примеров следует: 315,187510 = 473,148 = 13В,316

Системы счисления с основанием 2n

Для того чтобы целое двоичное число записать в системе счисления с основанием q = 2n (4, 8, 16 и т.д.), нужно:

1) данное двоичное число разбить справа налево на группы по п цифр в каждой;

  1. если в последней левой группе окажется меньше п разрядов, то ее надо дополнить слева нулями до нужного числа разрядов;

  2. рассмотреть каждую группу как п-разрядное двоичное число и записать ее соответствующей цифрой в системе счисления с основанием q = 2n.

Для того чтобы дробное двоичное число записать в системе счисления с основанием q = 2n, нужно:

  1. данное двоичное число разбить слева направо на группы по n цифр в каждой;

  2. если в последней правой группе окажется меньше п разрядов, то ее надо дополнить справа нулями до нужного числа разрядов;

  3. рассмотреть каждую группу как п-разрядное двоичное число и записать ее соответствующей цифрой в системе счисления q = 2n.

Для того чтобы произвольное двоичное число записать в системе счисления с основанием q = 2n, нужно:

1) данное двоичное число разбить слева и справа (целую и дробную части) на группы по п цифр в каждой;

2) если в последних правой и левой группах окажется меньше n разрядов, то их надо дополнить справа и слева нулями до нужного числа разрядов;

3) рассмотреть каждую группу как n-разрядное двоичное число и записать ее соответствующей цифрой в системе счисления с основанием q=2n

Для того чтобы произвольное число, записанное в системе счисления с основанием q = 2n, перевести в двоичную систему счисления, нужно каждую цифру этого числа заменить ее п-разрядным эквивалентом в двоичной системе счисления.

Применительно к компьютерной информации часто используются системы с основанием 8 (восьмеричная) и 16 (шестнадцатеричная).

Перевод числа (целого или дроби) из любой системы счисления в 10-ную

Чтобы перевести число из системы счисления с основанием Q в 10-ную:

1. Представляем число в виде полинома от основания системы счисления и вычисляем его значение. Полином - представление числа в виде суммы его цифр, умноженных на соответствующую степень основания системы счисления.

Внимание: цифры в полиномах и основание записываются в 10-ной системе счисления (переводим по таблице).

Перевод смешанных чисел (неправильных дробей) из 10-ной системы счисления в любую другую

Если число Х имеет целую и дробную часть, то переводим целую часть по правилу для целых чисел, а дробную (вместе с нулем и десятичной запятой "0,") по правилу для дробей. Потом к переведенной целой части "приклеиваем" справа переведенную дробную (убрав из нее "0,").

Перевод правильной дроби из 10-ной системы счисления в любую другую

Чтобы перевести правильную дробь X из 10-ной систему счисления в любую другую с основанием Q:

1. X умножаем на Q.

2. в полученном произведении целая часть (может быть равной нулю) преобразуется в цифру системы с основанием Q по таблице перевода цифр. Каждая из этих целых частей будет цифрой в ответе.

3. если дробная часть произведения равна нулю, переходим к шагу 4. Если не равна нулю, умножаем дробную часть произведения на Q, как написано в шагах 1 и 2. Обратите внимание: умножается только дробная часть, целая в умножении не участвует.

4. Получаем ответ: пишем "0,", а после десятичной запятой - преобразованные по таблице целые части произведений в порядке их получения (сверху вниз).

Внимание! Умножать можно либо до получения нуля в дробной части, либо пока не будет достигнута нужная точность (требуемое количество цифр после запятой). Следует учесть, что дробь, не периодическая в 10-ной системе счисления, может оказаться периодической в другой системе.

Перевод целого числа из 10-ной системы счисления в любую другую

Чтобы перевести целое число Х из 10-ной системы в любую другую с основанием Q:

1. делим Х на Q, в результате чего получается целая часть частного и остаток (может быть равен нулю, если разделилось нацело).

2. если полученная целая часть частного меньше Q, переходим к шагу 3. Если равно или больше Q, снова делим целую часть частного на Q, как описано в шаге 1. Внимание: делится только целая часть, остаток в делении не участвует (он пригодится позже).

3. все полученные остатки и последняя целая часть частного (меньшая, чем Q) преобразуются в соответствии с таблицей перевода в цифры той системы счисления, в которую выполняется перевод. Иными словами, если, к примеру, при переводе в 16-ную систему у вас получился остаток 12, то его нужно преобразовать в 16-ную цифру С.

4. Получаем ответ. Его первая (старшая) цифра - последнее частное, а остальные - остатки от деления, записанные в порядке, обратном порядку их получения.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]