Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
информатика билеты.docx
Скачиваний:
0
Добавлен:
01.04.2025
Размер:
189.37 Кб
Скачать
  1. Предмет и задачи информатики.

Информатика – это область человеческой деятельности, связанная с процессами преобразования информации с помощью компьютеров и их взаимодействием со средой применения.

Основной задачей информатики является систематизация приёмов и методов работы с аппаратными программными средствами вычислительной техники.

  1. Понятие информации. Виды информации.

Информация - сведение об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы. Она может быть в виде: текстов, рисунков, чертежей, фотографий, световых или звуковых сигналов, радиоволн, электрических и нервных импульсов, магнитных записей, жестов и мимики, запахов и вкусовых ощущений; хромосом, посредством которых передаются по наследству признаки и свойства организмов, и т.д.

  1. Соотношение понятия <<Информация>> и <<Данные>>.

Чтобы извлечь информацию из данных, необходимо иметь метод получения информации, адекватный форме представления данных. Причем необходимо учитывать, что информация не является статичным объектом – она динамична и существует только в момент взаимодействия данных и методов. Можно сказать, что все прочее время она пребывает в <<потенциальном>> состоянии и представлена как данные. Кроме того, одни и те же данные могут представлять разную информацию в зависимости от степени адекватности взаимодействующих с ними методов, к которым надо отнести и условия её извлечения.

  1. Синтаксическая мера информации. Единица измерения объемов данных.

Это мера оперируется с обезличенной информацией, не выражающей смыслового отношения к объекту. Количество информации на синтаксическом уровне определяется с помощью понятия неопределённости состояния (энтропии) системы. Объём данных Vд в сообщении измеряется количеством символов (разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес и соответственно меняется единица измерения данных: - в двоичной системе счисления единица измерения – бит или более укрупнённая единица байт, равна 8 бит. Сообщение, записанное двоичным кодом 10111011, имеет объем данных 8 бит или 1 байт. – в десятичной системе счисления единица измерения – дит. Сообщение, записанное числом 275903 имеет объем данных 6 дит.

  1. Энтропийная мера информации.

Мера хаотичной информации или мера внутренней неупорядоченности информационной системы. Энтропия увеличивается при хаотическом распределении информационных ресурсов и уменьшается при их упорядочении. Взаимосвязь энтропии и информатики нашло отражение в формуле: H + I = 1 где H – энтропия, I – информация. Этот вывод количественно был обоснован Бриллюэном.

  1. Семантическая мера информации.

Используется для измерения смыслового содержания информации. Наибольшее распространение здесь получила тезаурусная мера, связывающая семантические свойства информации со способностью пользователя принимать поступившее сообщение. Тезаурус – это совокупность сведений, которыми располагает пользователь или система. Максимальное количество семантической информации потребитель получает при согласовании её смыслового содержания со своим тезаурусом, когда поступающая информация понятна пользователю и несет ему ранее не известные сведения. С семантической мерой количества информации связан коэффициент содержательности, определяемый как отношение количества семантической информации к общему объему данных.

  1. Информационные системы, процессы и технологии.

Информационная система (ИС) – взаимосвязанная совокупность средств, методов и персонала, используемых для хранения, обработки и выдачи информации в интересах достижения поставленной цели. Структуру информационной системы составляет совокупность отдельных её частей, называемых подсистемами. Подсистема - это часть системы, выделенная по какому-либо признаку.

Информационный процесс – совокупность последовательных действий (операций), производимых над информацией (в виде данных, сведений, фактов, идей, гипотез, теорий и пр.), для получения какого-либо результата (достижения цели). Наиболее обобщенными информационными процессами является сбор, преобразование, использование информации. К основным информационным процессам относятся: поиск, отбор, хранение, передача, кодирование, обработка, защита информации.

Информационные технологии (ИТ) – это класс областей деятельности, относящихся к технологиям управления и обработкой огромного потока информации с применением вычислительной техники.

  1. Категории информатики.

  • Понятия, заимствованные информатикой из других наук.

  • Оригинальные понятия и аксиомы, отличающиеся принципиальной новизной.

  • Понятия более низких иерархий – субпонятия, раскрывающие содержание каждого из основных понятий информатики, как метанауки.

  1. Аксиомы информатики.

Первая аксиома. Исходный информационный поток: Iисх = NH, где N – количество символов, исходящих от наблюдателя; H – энтропия сигналов (0<=H<=1).

Вторая аксиома. Информационная напряженность элемента управляющей подсистемы: Gj = Iисх / Hj, где Iисх – исходный информационный поток (определяется воздействием наблюдателя); Hj – энтропия подсистемы.

Третья аксиома. Информационная напряженность управляющей подсистемы (включая наблюдателя): Qj = ∑j Gj, где j меняется от 1 до n.

Четвертая аксиома. Энергия объекта управления (информационная), затрачиваемая на переход в новое состояние: E = Q – Iполн, где Iполн – полный информационный поток, воздействующий на объект управления за период его перехода в новое состояние.

Пятая аксиома. Работа управляющей подсистемы (затраты энергетических ресурсов на осуществление информационной работы): A= a + b, где a – внутренняя работа управляющей подсистемы; b – внешняя (полезная) работа управляющей подсистемы, затрачиваемая на информационную отдачу.

Шестая аксиома. Полезная работа управляющей подсистемы: b → Iполн. Полезная работа должна соответствовать полному информационному потоку.

  1. Классификация сс. Разложение числа в виде многочлена в произвольной сс.

Позиционная СС – система счисления, в которой вес цифры меняется с изменением положения цифры в числе, но при этом полностью определяется написанием цифры и местом, которое она занимает.

Непозиционная СС – система счисления, в которой вес цифры не зависит от её положения.

Универсальная СС – система счисления, которая позволяет записать любое вещественное число (конечной или бесконечной последовательностью цифр).

Неуниверсальная СС – система счисления, которая позволяет записать лишь относительно небольшие числа, иногда только целые (либо наоборот, только меньше единицы).

Основная СС – позиционная СС, в которой вес каждой цифры изменяется в одно и то же число раз при её переносе из любого разряда в соседний с ним.

Неосновная СС – позиционная СС, в которой соотношение весов соседних разрядов может меняться.

Двойная СС – неосновная позиционная СС, в которой число фактически представлено в системе счисления с большим основанием, но вместо соответствующего набора цифр используется их представление наборами знаков в системе счисления с меньшим основанием.

Традиционная СС – система счисления, в которой запись числа состоит из двух частей — целой и дробной.

Информационная СС – система счисления, в которой запись числа (в отличие от традиционной) состоит из единственной последовательности цифр. При этом каждая очередная цифра (бит) уточняет значение числа (его положение на оси).

Интервальная СС – информационная СС, в которой все подмножества числовой оси, определенные несколькими первыми цифрами записи любого числа, являются интервалами.

Итерационная СС – интервальная СС, в которой в качестве точек разбиения (границ интервалов) выбираются корни последовательных итераций некоторой монотонной функции.

Башенная СС – итерационная СС, в которой каждый очередной бит в записи числа имеет смысл знака логарифма от абсолютной величины мантиссы, полученной на предыдущем шаге.