
ТОИ(1). Теория информации.
Информатика как наука и как вид практической деятельности.
Термин ин-ка возник в 60 г. Выделение ин-ки как самостоятельной области в человеческой деятельности связано с развитием компьютерной техники. Ин-ка – фундаментальная наука, изучающая свойства информации и методы ее получения, хранения и обработки при помощи ЭВМ. Ин-ка делится на теоретическую и прикладную. Теор. ин-ка рассматривает все аспекты разработки автоматизированных И.С., их проектирование и создание. Прикладная ин-ка изучает конкретные разновидности И.Т., которые формируются с помощью специальных И.С. (медицинских, управленческих, военных).
Однако многие ученые подчеркивают, что информатика имеет характерные черты и других групп наук – технических и гуманитарных.
Информатика тесно связана с такими более специальными науками как теория информации, кибернетика, системотехника.
Роль информатики в современном обществе. Роль информатики в развитии общества чрезвычайно велика. С ней связано начало революции в области накопления, передачи и обработки информации.
Предмет информатики – информационный ресурс, его сущность, законы функционирования, механизмы взаимодействия с другими ресурсами общества и воздействие на соц. процесс. Информационный ресурс – знания, подготовленные людьми для социального использования в обществе и зафиксированные на материальном носителе.
Объектом инф-ки выступают автоматизированные, основанные на ЭВМ и телекоммуникационной техники, информационные системы (ИС) различного класса и назначения.
Инфор-ая система – взаимосвязанная совокупность средств, методов, персонала, используемых для хранения, обработки и выдачи информации в интересах достижения поставленной цели.
Инфор-ная технология (ИТ) машинизированные способы обработки, хранения, передачи и использования инф-ции в виде знаний, которые реализуются посредством автоматизированных инф-ых систем.
И. Т. включает 2 основных элемента: машинный и человеческий (социальный). Последний выступает главным.
Знания должны фиксироваться, трансформироваться, распределяться, приниматься и перерабатываться, т.е. преобразовываться в инфор-ые ресурсы (ИР).
Под И.Р. подразумеваются базы данных, информационно-поисковые системы, электронные журналы и т.д.
Информация–это первоначально сведения, передаваемые одними людьми другим устно, письменно или другим способом.(Бол. рос. энцикл)
Виды информации:
1)по способу кодирования: аналоговая, цифровая.
2) по сфере возникновения: элементарная (возн. в нежив. природе), биологическая, социальная.
3) по способу передачи и восприятия: визуальная, аудиальная, тактильная, вкусовая.
4) по общественному значению: массовая, специальная, личная.
Свойства информации:
Полнота, адекватность, интерпретируемость и понятность, достоверность, доступность, актуальность, релевантность
Единицей измерения количества инф-ции явл-ся бит.
Подходы к измерению информации:
1. Вероятностный:
Оценивается количество информации I
в сообщении о состояниях некоторой
системы, которая может иметь определенное
число состояний N.
Если состояния системы равновероятны,
то используют формулу Хартли:
.
В случае системы с равновозможными
состояниями используют формулу Шеннона:
, где pi
– вероятность нахождения системы в
состоянии
.
Информационный процесс- это процесс, входе которого изменяется содержание информации или форма ее представления. Виды информационных процессов: -получение, хранение, передача, обработка, использование.
Источник →Канал связи→Приемник. Информация полученная приемником должна быть так или иначе сохранена, хранимую информацию наз. – данными.
Тои(2). Теория кодирования
Системы счисления: способ представления числа определяется системой счисления (СС). СС это правило записи чисел с помощью заданного набора специальных знаков – цифр. Используются различные способы записи чисел, которые можно объединить в группы: унарная, непозиционная, позиционная. Унарная- это СС в которой для записи чисел используется только один знак - | (палочка). Непозиционные- наиболее распространённой является римская СС. В ней некоторые базовые числа обозначены заглавными латинскими буквами: 1-|, 5- V, 10-Х, 50- L, 100-С,500-D, 1000- М. Все другие числа строятся комбинацией базовых. Позиционными наз. СС в которых значение каждой цифры в изображении числа определяется её положением (позицией) в ряду других цифр.
Информация передается в виде сообщения от некоторого источника инф-ции к ее приемнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приемнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением.
Побуквенное (алфавитное кодирование)
Кодирование F может сопоставлять код всему сообщению из мн-ва S как единому целому, или же строить код сообщений из кодов его частей. Элементарной частью сообщения явл-ся одна буква алфавита А.
Разделимые коды
Схема
наз-ся разделимой,
если любое слово, составленное из
элементарных кодов, единственным
образом разлагается на элементарные
коды. Алфавитное кодирование с разделимой
схемой допускает декодирование. Если
таблица кодов содержит одинаковые
элемент. коды, то схема заведомо не
явл-ся разделимой.
Префиксные коды
Схема
наз. префиксной,
если элемент. код одной буквы, не явл-ся
префиксом элемент. кода др. буквы.
Префиксная схема явл-ся разделимой.
Св-во быть префиксной явл-ся достаточным,
но не явл-ся необходимым для разделимой
схемы.
Метод Хаффмана
При построении оптимальных кодов используется метод Хаффмана:
1.Необх-мо выстроить исходные сообщения по невозрастанию их вероятностей.
2.Получить новое множество сообщений путем сложения двух сообщений с наименьшими вероятностями.
3.Пункты 1-2 повторять до тех пор, пока не останется 2 сообщ-я (процесс сжатия).
4.Каждому новому сообщению сопоставить кодовые слова 0 или 1.
5.Процесс расщепления: осущ-ся переход к предыдущему на данном этапе мн-ву сообщ-ий, в кот-м к сжимаемым сообщ-ям добавляется соответствующий кодовый символ 0 или 1.
6.Каждому сообщ-ю дописывается полученное кодовое слово.
Метод Фано
Пусть даноA1,A2,…,An сообщения,p1(A1),…,pn(An)-соответственно, вероятности сообщений.Располагаем n сообщений в порядке убывания их вероятностей: p1(A1)>=p2(A2)>=….pn(An). Далее разбиваем мн-во сообщений на 2 группы так, чтобы суммарные вероятности сообщений каждой из групп были как можно близки друг к другу. Сообщениям из одной группы в качестве первого символа кодового слова приписываем символ 0, сообщениям из др. группы-1.По тому же принципу каждую из полученных групп снова разбиваем на 2 части.Это разбиение определяет значение 2го символа код. слова. Процедура продолжается до тех пор, пока все мн-во не будет разбито на отдельные сообщения.В рез-те каждому из сообщений будет сопоставлено код.слово из 0 и 1.