Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Otvety_na_ekzamenatsionnye_voprosy.doc
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
508.42 Кб
Скачать
  1. Наука информатика. Предмет исследования информатики. Ее взаимосвязь с другими науками.

Информатика - это наука о способах и методах представления, обработки, передачи и хранения информации с помощью ЭВМ. Предметом изучения науки информатика являются именно данные: методы их создания, хранения, обработки и передачи. Взаимосвязь: физика(при передачи импульса.. Это явление, вне зависимости от того, как, какие именно состояния и каких именно объектов изменились, называется передачей сигнала от одного объекта другому. Изменение состояния объекта при передаче ему сигнала называется регистрацией сигнала.), математика(Информация не входит в число предметов исследования математики. Тем не менее слово «информация» употребляется в математических терминах – собственная информация и взаимная информация, относящихся к абстрактной (математической) части теории информации.), юриспруденция(Правовое определение понятия «информация» дано в федеральном законе от 27 июля 2006 года № 149-ФЗ «Об информации, информационных технологиях и о защите информации» (Статья 2): «информация — сведения (сообщения, данные) независимо от формы их представления».).

  1. Информация. Сигналы. Данные. Концепции в понимании информации.

Информация - сведения о чем-либо, независимо от формы их представления.Объективная (первичная) информация — свойство материальных объектов и явлений (процессов) порождать многообразие состояний, которые посредством взаимодействий (фундаментальные взаимодействия) передаются другим объектам и запечатлеваются в их структуре. Субъективная (семантическая,смысловая, вторичная) информация – смысловое содержание объективной информации об объектах и процессах материального мира, сформированное сознанием человека с помощью смысловых образов (слов, образов и ощущений) и зафиксированное на каком-либо материальном носителе. В бытовом смысле информация — сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством.

Данные – зарегистрированный сигнал.

Сигнал - материальный носитель информации, используемый для передачи сообщений в системе связи. Сигнал может генерироваться, но его приём не обязателен, в отличие от сообщения, которое должно быть принято принимающей стороной, иначе оно не является сообщением. Сигналом может быть любой физический процесс, параметры которого изменяются в соответствии с передаваемым сообщением.

Концепции информации:

Первая концепция (концепция К. Шеннона), отражая количественно-информационный подход, определяет информацию как меру неопределенности (энтропию) события. Количество информации в том или ином случае зависит от вероятности его получения: чем более вероятным является сообщение, тем меньше информации содержится в нем.

При таком понимании информация - это снятая неопределенность, или результат выбора из набора возможных альтернатив.

Вторая концепция рассматривает информацию как свойство материи. Ее появление связано с развитием кибернетики и основано на утверждении, что информацию содержат любые сообщения, воспринимаемые человеком или приборами.

То есть, информация как свойство материи создает представление о ее природе и структуре, упорядоченности и разнообразии.

Третья концепция основана на логико-семантическом подходе, при котором информация трактуется как знание, причем не любое знание, а та его часть, которая используется для ориентировки, для активного действия, для управления и самоуправления.

Иными словами, информация - это действующая, полезная часть знаний.

  1. Информационно-количественный подход в теории информации. Понятие энтропии информации.

Теория информации (математическая теория связи) — раздел прикладной математики, аксиоматически определяющий понятие информации, её свойства и устанавливающий предельные соотношения для систем передачи данных. Как и любая математическая теория, оперирует с математическими моделями, а не с реальными физическими объектами (источниками и каналами связи). Использует, главным образом, математический аппарат теории вероятностей и математической статистики.

Основные разделы теории информации — кодирование источника (сжимающее кодирование) и канальное (помехоустойчивое) кодирование. Теория информации тесно связана с криптографией и другими смежными дисциплинами.

Информацио́нная энтропи́я — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.

Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.

Определение по Шеннону

Шеннон предположил, что прирост информации равен утраченной неопределённости, и задал требования к её измерению: мера должна быть непрерывной; то есть изменение значения величины вероятности на малую величину должно вызывать малое результирующее изменение функции; в случае, когда все варианты (буквы в приведённом примере) равновероятны, увеличение количества вариантов (букв) должно всегда увеличивать значение функции; должна быть возможность сделать выбор (в нашем примере букв) в два шага, в которых значение функции конечного результата должно являться суммой функций промежуточных результатов.I(s)=

  1. Измерение информации. Единицы измерения информации.

Единицы измерения информации служат для измерения объёма информации — величины, исчисляемой логарифмически. Это означает, что когда несколько объектов рассматриваются как один, количество возможных состояний перемножается, а количество информации — складывается. Не важно, идёт речь о случайных величинах в математике, регистрах цифровой памяти в технике или в квантовых системах в физике.

Чаще всего измерение информации касается объёма компьютерной памяти и объёма данных, передаваемых по цифровым каналам связи.

Единицы измерения информации: 1байт = 8 бит

1Кб (килобайт) = 210 байт = 1024 байт

1Мб (мегабайт) = 210 Кб = 1024 Кб

1Гб (гигабайт) = 210 Мб = 1024 Мб

  1. Свойства информации. Приведите примеры.

  1. Объективность информации. Объективный – существующий вне и независимо от человеческого сознания. Информация – это отражение внешнего объективного мира. Информация объективна, если она не зависит от методов ее фиксации, чьего-либо мнения, суждения. Пример. Сообщение «На улице тепло» несет субъективную информацию, а сообщение «На улице 22°С» – объективную, но с точностью, зависящей от погрешности средства измерения. Объективную информацию можно получить с помощью исправных датчиков, измерительных приборов. Отражаясь в сознании человека, информация может искажаться (в большей или меньшей степени) в зависимости от мнения, суждения, опыта, знаний конкретного субъекта, и, таким образом, перестать быть объективной.

  2. Достоверность информации. Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация помогает принять нам правильное решение. Недостоверной информация может быть по следующим причинам:

- преднамеренное искажение (дезинформация) или непреднамеренное искажение субъективного свойства;

- искажение в результате воздействия помех («испорченный телефон») и недостаточно точных средств ее фиксации.

  1. Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению.

  2. Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п.

  3. Актуальность информации – важность для настоящего времени, злободневность, насущность. Только вовремя полученная информация может быть полезна.

  4. Полезность (ценность) информации. Полезность может быть оценена применительно к нуждам конкретных ее потребителей и оценивается по тем задачам, которые можно решить с ее помощью.

  1. Способы классификации информации. Приведите примеры.

Информацию можно разделить на виды по разным критериям:

по истинности

- истинная

- ложная

по способу восприятия

Визуальная — воспринимаемая органами зрения.

Аудиальная — воспринимаемая органами слуха.

Тактильная — воспринимаемая тактильными рецепторами.

Обонятельная — воспринимаемая обонятельными рецепторами.

Вкусовая — воспринимаемая вкусовыми рецепторами.

по форме представления

Текстовая — передаваемая в виде символов, предназначенных обозначать лексемы языка.

Числовая — в виде цифр и знаков, обозначающих математические действия.

Графическая — в виде изображений, предметов, графиков.

Звуковая — устная или в виде записи передача лексем языка аудиальным путём.

по назначению

Массовая — содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума.

Специальная — содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.

Секретная — передаваемая узкому кругу лиц и по закрытым (защищённым) каналам.

Личная (приватная) — набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.

  1. Формы представления информации. Приведите примеры.

Одну и ту же информацию можно представить разными кодами, т.е. в разных формах.

Формы представления(способы кодирования) информации: – разговорные языки (более 2000); – язык мимики и жестов; – язык рисунков и чертежей; – научные языки (математики, программирования); – языки искусства (музыка, живопись, скульптура); – специальные языки (азбука Брайля, азбука Морзе, флажковая азбука).

Выбор форм представления (способа кодирования) зависит от цели, ради которой оно осуществляется.

Цели: сокращение записи; засекречивание (шифровка); удобство обработки и др.

  1. Способы кодирования данных. Приведите примеры.

Способы кодирования информации: 1) графический  (с помощью рисунков, значков, схем, чертежей, графиков); 2) числовой  (с помощью чисел); 3) символьный  (с помощью символов того же алфавита, что и исходный текст).

Кодирование – переход от одной формы представления информации к другой, более удобной для хранения, передачи или обработки.

Декодирование – действия по восстановлению первоначальной формы представления информации.

  1. Информационная система. Компоненты информационной системы.

В широком смысле информационная система есть совокупность технического, программного и организационного обеспечения, а также персонала, предназначенная для того, чтобы своевременно обеспечивать надлежащих людей надлежащей информацией

В узком смысле информационной системой называют только подмножество компонентов ИС в широком смысле, включающее базы данных, СУБД и специализированные прикладные программы.

10. Система счисления. Позиционная система счисления. Привести примеры представления чисел, записанных в этих системах счисления:

Система счисле́ния — символический метод записи чисел, записи чисел с помощью письменных знаков.

Система счисления:

  • даёт представления множества чисел (целых и/или вещественных);

  • даёт каждому числу уникальное представление (или, по крайней мере, стандартное представление);

  • отражает алгебраическую и арифметическую структуру чисел.

Системы счисления подразделяются на позиционныенепозиционные и смешанные.

Чем больше основание системы счисления, тем меньшее количество разрядов (то есть записываемых цифр) требуется при записи числа в позиционных системах счисления.

Позиционная система счисления.

Позиционные системы счисления — это системы счисления, в которых значение цифры напрямую зависит от её положения в числе. Например, число 01 обозначает единицу, 10 — десять.

Позиционные системы счисления позволяют легко производить арифметические расчёты.

Представление чисел с помощью арабских цифр — самая распространённая позиционная система счисления, она называется «десятичной системой счисления». Десятичной системой она называется потому, что использует десять цифр: 0, 1, 2, 3, 4, 5, 6, 7, 8 и 9. Заметьте: максимальная цифра (9) на единичку меньше количества цифр (10).

Для составления машинных кодов удобно использовать не десятичную, а двоичную систему счисления, содержащую только две цифры, 0 и 1. Обратите внимание, что в двоичной системе максимальная цифра 1.

Программисты для вычислений также пользуются ещё восьмеричной и шестнадцатеричной системами счисления.

Количество цифр используемых в системе счисления называется её «основанием».

Примеры чисел:

  • 110012 — число в двоичной системе счисления, a0 = 1,a1 = 0,a2 = 0,a3 = 1,a4 = 1;

  • 2213 — число в троичной системе счисления, a0 = 1,a1 = 2,a2 = 2;

  • 318 — число в восьмеричной системе счисления, a0 = 1,a1 = 3;

  • 2510 — число в десятичной системе счисления, a0 = 5,a1 = 2;

11. Система счисления. Непозиционная система счисления. Привести примеры представления чисел, записанных в этих системах счисления:

В непозиционных системах счисления величина, которую обозначает цифра, не зависит от положения в числе. При этом система может накладывать ограничения на положение цифр, например, чтобы они были расположены в порядке убывания.

Расскажем вкратце о смешанных и непозиционных системах.

Денежные знаки — это пример смешанной системы счисления.

Сейчас в России используются монеты и купюры следующих номиналов: 1 коп., 5 коп., 10 коп., 50 коп., 1 руб., 2 руб., 5 руб., 10 руб., 50 руб., 100 руб., 500 руб., 1000 руб. и 5000 руб. Чтобы получить некоторую сумму в рублях, нам нужно использовать некоторое количество денежных знаков различного достоинства.

Предположим, что мы покупаем пылесос, который стоит 6379 руб.

Для покупки можно использовать шесть купюр по тысяче рублей, три купюры по сто рублей, одна пятидесятирублёвая купюра, две десятки, одна пятирублёвая монета и две монеты по два рубля.

Если мы запишем количество купюр или монет начиная с 1000 руб. и заканчивая одной копейкой, заменяя нулями пропущенные номиналы, то мы получим число 603121200000.

В непозиционных системах счисления величина числа не зависит от положения цифр в записи.

Если бы мы перемешали цифры в числе 603121200000, то мы бы не смогли понять, сколько стоит пылесос. Следовательно, такая запись относится кпозиционным системам.

Если же к каждой цифре приписать знак номинала, то такие составные знаки (цифра+номинал) уже можно было бы перемешивать. Т.е. такая запись уже является непозиционной!

Примером "чисто" непозиционной системы счисления является римская система.

12. Системы счисления, применяемые при создании вычислительной техники. Примеры.

Для составления машинных кодов удобно использовать не десятичную, а двоичную систему счисления, содержащую только две цифры, 0 и 1. Обратите внимание, что в двоичной системе максимальная цифра 1.

Во всех современных ЭВМ для представления числовой информации используется двоичная система счисления. Это обусловлено :  · более простой реализацией алгоритмов выполнения арифметических и логических операций;  · более надежной физической реализацией основных функций, так как они имеют всего два состояния (0 и 1); · экономичностью аппаратурной реализации всех схем ЭВМ

13. Представление чисел в двоичной системе счисления. Привести примеры.

Двоичная система счисления — это позиционная система счисления с основанием 2. В этой системе счисления числа записываются с помощью двух символов (0 и 1).

14. Общее название для средств автоматизации расчётов, использующих механизмы.

Примерами механических вычислительных машин являются:

  • Антикитерский механизм

  • Калькулятор Лейбница

  • Считающие часы Шикарда

  • Суммирующая машина Паскаля

  • Арифмометры

  • Суммирующие машины

Наиболее сложными вариантами, допускавшими ограниченные возможности программирования были:

  • Разностная машина Чарльза Бэббиджа

  • Табулятор Холлерита

  • Z1 (вычислительная машина)

Машина Паскаля.

представляла собой механическое устройство в виде ящичка с многочисленными связанными одна с другой шестерёнками. Складываемые числа вводились в машину при помощи соответствующего поворота наборных колёсиков. На каждое из этих колёсиков, соответствовавших одному десятичному разряду числа, были нанесены деления от 0 до 9. При вводе числа, колесики прокручивались до соответствующей цифры. Совершив полный оборот избыток над цифрой 9 колёсико переносило на соседний разряд, сдвигая соседнее колесо на 1 позицию. Первые варианты «Паскалины» имели пять зубчатых колёс, позднее их число увеличилось до шести или даже восьми, что позволяло работать с большими числами, вплоть до 9999999. Ответ появлялся в верхней части металлического корпуса. Вращение колёс было возможно лишь в одном направлении, исключая возможность непосредственного оперирования отрицательными числами. Тем не менее, машина Паскаля позволяла выполнять не только сложение, но и другие операции, но требовала при этом применения довольно неудобнойпроцедурыповторныхсложений. Вычитание выполнялось при помощи дополнений до девятки, которые для помощи считавшему появлялись в окошке, размещённом над выставленным оригинальным значением.

Механический калькулятор был создан Лейбницем в 1673 году. Сложение чисел выполнялось при помощи связанных друг с другом колёс, так же как на вычислительной машине другого выдающегося учёного-изобретателя Блеза Паскаля — «Паскалине». Добавленная в конструкцию движущаяся часть (прообраз подвижной каретки будущих настольных калькуляторов) и специальная рукоятка, позволявшая крутить ступенчатое колесо (в последующих вариантах машины — цилиндры), позволяли ускорить повторяющиеся операции сложения, при помощи которых выполнялось деление и перемножение чисел. Необходимое число повторных сложений выполнялось автоматически.

Антикитерский механизм

Механизм содержал большое число бронзовых шестерён в деревянном корпусе, на котором были размещены циферблаты со стрелками и, по реконструкции, использовался для расчёта движения небесных тел. 

Антикитерский механизм 150-100 год до н.э., Греция

Антикитерский механизм - древняя механическая аналоговая вычислительная машина для расчета астрономических позиций.

 Счетное устройство Леонардо да Винчи

1612!!!

Механическая счетная машина Шикарда

Первая (?) механическая машина была описана в 1623 г. В. Шиккардом, реализована (?) в единственном экземпляре и предназначалась для выполнения четырех арифметических операций над 6-разрядными числами.

Круговая логарифмическая линейка Ричарда Деламейна - 1630 год.

Арифметическая машина Блеза Паскаля (Паскалево колесо, суммирующая машина Паскаля)

Первым механическим счетным устройством, которое работало, была счетная машина Блеза Паскаля построенная в 1642 году. Механическая машина Паскаля (Паскалина) могла складывать и вычитать.

Ступенчатый вычислитель Лейбница (Колесо Лейбница)

В 1673 году Готфрид Вильгельм Лейбниц создал механическое счетное устройство (ступенчатый вычислитель Лейбница), которое не только складывало и вычитала, а еще умножало, делило и извлекало квадратный корень. Видоизмененное колесо Лейбница стало основой массовых счетных приборов - арифмометров.

 Арифмометр Полени - 1709

Универсальная логарифмическая линейка Уатта - 1779

Механический арифмометр

Машинка для вычисления Якобсона (Несвиж, 1760-е годы) - первая Российская счетная машинка

Особое место в истории занимает работа Чарльза Беббиджа, разработавшего первую механическую программируемую машину.

Аналитическую машину Чарльза Бэббижда можно назвать предшественницей современных ЭВМ.

Машина Хилла – 1857.

15

Ана́логовый компьютер — аналоговая вычислительная машина (АВМ), которая представляет числовые данные при помощи аналоговых физических переменных (скоростьдлинанапряжениетокдавление), в чём и состоит его главное отличие от цифрового компьютера.

Принцип действия

Представлением числа в механических аналоговых компьютерах служит, например, количество поворотов шестерёнок механизма. В электрических — используются различия в напряжении. Они могут выполнять такие операции, как сложениевычитаниеумножениеделение, дифференцирование, интегрирование и инвертирование.

Результатом работы аналогового компьютера являются либо графики, изображённые на бумаге или на экране осциллографа, либо электрический сигнал, который используется для контроля процесса или работы механизма.

Эти компьютеры идеально[4] приспособлены для осуществления автоматического контроля над производственными процессами, потому что они моментально[4] реагируют на различные изменения во входных данных. Такого рода компьютеры широко используются в научных исследованиях. Например, в таких науках, в которых недорогие электрические или механические устройства способны имитировать изучаемые ситуации.

В ряде случаев с помощью аналоговых компьютеров возможно решать задачи, меньше заботясь о точности вычислений, чем при написании программы для цифровой ЭВМ. Аналоговые компьютеры основываются на задании физических характеристик их составляющих. Обычно это делается методом включения-исключения некоторых элементов из цепей, которые соединяют эти элементы проводами, и изменением параметров переменных сопротивлений,емкостей и индуктивностей в цепях.

Автомобильная автоматическая трансмиссия является примером гидромеханического аналогового компьютера, в котором при изменении вращающего момента жидкость в гидроприводе меняет давление, что позволяет получить необходимый результат.

Помимо технических применений (автоматические трансмиссии, музыкальные синтезаторы), аналоговые компьютеры используются для решения специфических вычислительных задач практического характера. Например, кулачковый механический аналоговый компьютер, изображённый на фото, применялся в паровозостроении для аппроксимации кривых 4 порядка с помощью преобразований Фурье.

Сейчас аналоговые компьютеры уступили свое место цифровым технологиям, но ещё применяются там, где необходима повышенная точность результатов.

16,17,18

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]