Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Билеты ОИ 1 курс МИРЭА.docx
Скачиваний:
40
Добавлен:
10.05.2015
Размер:
62.5 Кб
Скачать

1.Предмет, объект и задачи информатики. Различие информации, данных, знаний.

Информатика – научная дисциплина, изучающая вопросы, связанные с поиском, сбором, хранением, преобразованием и использованием информации в самых различных сферах человеческой деятельности.

Объектом информатики выступают как сами ЭВМ (компьютеры), так и основанные на них и телекоммуникационной технике информационные системы (ИС) различного класса и назначения.

Задачи информатики: исследование информационных процессов любой природы. Разработка информационной техники и создание технологий переработки информации. Следующая задача- решение научных и инженерных проблем; создание, внедрение и обоснование компьютерных технологий во всех сферах жизни.

Условие возникновения

Итак, информация возникает только в том случае, если имеется в наличии некий источник, содержащий данные, и, непосредственно, получатель. Данные могут преобразовываться в информацию несколькими путями: посредством подсчета, коррекции, сжатия, контекстуализации и разбития на категории.

Данные являются зафиксированными на каком-либо источнике сведениями. В последнее время количество данных достигло невероятного роста. Это было вызвано быстрым ростом сети Интернет.

Измерение

Данные измерить нельзя. Как только мы станем подсчитывать данные, начнется процесс обработки. А значит, данные автоматически перейдут в разряд «информации». Информацию измерить можно. Для этого достаточно оценить уровень знаний до поступления информации и после нее.

Результат преобразования

Человеческий мозг, подобно самому совершенному компьютеру, обрабатывает полученные нами данные и выдает некую информацию. А когда возникает необходимость ее применить для другого мыслительного процесса, то для него эта информация в свою очередь становится данными, из которых будет получена новая информация.

Конечной стадией преобразования информации, прошедшей многократную обработку в течении некоторого промежутка времени, становятся знания.

Различие между информацией и данными: это признаки и записанные наблюдения, если они не используются, то это данные, а если используются, то информация.

Знание – зафиксированная и проверенная практикой информация, которая может многократно использоваться людьми для решения тех или иных задач.

2. Показатели качества информации. Понятие адекватности информации. В каких формах она проявляется?

Показатели качества информации: содержательность, достаточность, доступность, актуальность, своевременность, точность, достоверность, устойчивость, кратность.

Адекватность информации — это уровень соответствия образа, создаваемого с помощью информации, реальному объекту, процессу, явлению. От степени адекватности информации зависит правильность принятия решения.

Адекватность информации может выражаться в трех формах: синтаксической, семантической и прагматической.

3. Какие существуют меры информации и когда ими надо пользоваться? Синтаксическая мера информации

Эта мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.

Объем данных Vд. в сообщении измеряется количеством символов (разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес и соответственно меняется единица измерения данных:

в двоичной системе счисления единица измерения - бит (bit - binarydigit - двоичный разряд);

Количество информации - на синтаксическом уровне невозможно определить без рассмотрения понятия неопределенности состояния системы (энтропии системы). Действительно, получение информации о какой-либо системе всегда связано с изменением степени неосведомленности получателя о состоянии этой системы. Рассмотрим это понятие.

Пусть до получения информации потребитель имеет некоторые предварительные (априорные) сведения о системе a. Мерой его неосведомленности о системе является функция H(a), которая в то же время служит и мерой неопределенности состояния системы.

После получения некоторого сообщения b получатель приобрел некоторую дополнительную информацию Ib(a), уменьшившую его априорную неосведомленность так, что апостериорная (после получения сообщения b) неопределенность состояния системы стала Hb(a).

Тогда количество информации Ib(a) о системе, полученной в сообщении b, определится как

Ib(a)=H(a)-Hb(a), т.е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы.

Если конечная неопределенность Hb(a) обратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации Ib(a)=H(a). Иными словами, энтропия системы H(a) может рассматриваться как мера недостающей информации.

Энтропия системы H(a), имеющая N возможных состояний, согласно формуле Шеннона, равна:

где Рi - вероятность того, что система находится в i-м состоянии.

Для случая, когда все состояния системы равновероятны, т.е. их вероятности равны Pi=1/N, ее энтропия определяется соотношением

Часто информация кодируется числовыми кодами в той или иной системе счисления, особенно это актуально при представлении информации в компьютере. Естественно, что одно и то же количество разрядов в разных системах счисления может передать разное число состояний отображаемого объекта, что можно представить в виде соотношения

N=mn,

где N -число всевозможных отображаемых состояний;

т - основание системы счисления (разнообразие символов, применяемых в алфавите);

п - число разрядов (символов) в сообщении.

Коэффициент (степень) информативности (лаконичность) сообщения определяется отношением количества информации к объему данных, т.е.

причем 0<Y<1

С увеличением Y уменьшаются объемы работы по преобразованию информации (данных) в системе. Поэтому стремятся к повышению информативности, для чего разрабатываются специальные методы оптимального кодирования информации.