- •Тема 1: Информационные системы (ис).
- •С труктура, схема функционирования информационной системы.
- •Архитектура информационных систем.
- •Тема 2: Архитектура ис. Схема информационной системы факультета. Информационная революция.
- •Определения.
- •Тема 3: Серверы. Информационные системы. Сервер.
- •Информационные системы.
- •Классификация информационных систем по масштабам.
- •Классификация информационных систем по специализации.
- •Тема 4: Классификация информационных систем (пролдолжение). Бум информационных систем.
- •3 Фактора:
- •Определения:
- •Бум информационных систем – причины и следствия.
- •Информационная революция.
- •Влияние информационных систем на общество и общества на информационные системы.
- •Переход к информационному обществу:
- •Тема 5-6: Данные, информация и знания. Измерение и применение.
- •Три аспекта рассмотрения информации.
- •О знаниях.
- •Измерение цены знаний.
- •Меры информации.
- •1. Синтаксическая мера информации.
- •2. Семантическая мера информации.
- •Прагматическая мера информации.
- •Качество информации.
- •Типы информационных систем и различные аспекты информации.
- •Информация как предмет экономического анализа.
- •Тема 7-8: Телекоммуникации.
- •1) Телекоммуникация.
- •2) Компоненты и функции телекоммуникационных систем.
- •2.1. Компоненты телекоммуникационных систем.
- •2.2. Типы сигналов: аналоговые и цифровые.
- •2.3. Типы каналов связи.
- •2.4. Характеристики каналов связи.
- •Тема 9: Создание, внедрение, поддержка и развитие информационных систем. Рынок внедрения информации. Бизнес-процессы и их моделирование. Технологическая лекция.
- •2.4. Характеристики каналов связи.
- •2.5. Коммуникационные процессоры.
- •2.6. Программное обеспечение телекоммуникации.
- •Типы сетей (топология и география). Топология сетей.
- •География сетей:
- •Тема 10: Информационные системы, организации и бизнес-процессы. Более экономическая часть.
- •Ц епочка добавления стоимости. Из подхода Маккинзи:
- •Тема 11: Обеспечение информационными системами конкурентного преимущества (продолжение). Цепочка добавления стоимости. Бизнес-процессы.
- •Уровень фирмы.
- •Уровень отрасли.
- •Цепочка добавления стоимости и бизнес-процессы.
- •Тема 12: Данные, информация, знания.
- •Данные.
- •Дейтамайнинг.
- •Управление.
- •Тема 13:Цепочка добавления стоимости и бизнес-процессы.
- •Основные элементы бизнес-процессов:
- •Тема 14: Место реинжениринга в преобразовании компании.
- •Разработка информационных систем.
- •Консультанты. Всемирные лидеры it-консалтинга. Большая шестёрка (теперь Большая пятёрка).
- •Тема 15:Разработка информационных систем. Жизненный цикл информационных систем:
- •Управление информационными системами.
Измерение цены знаний.
Отметим наличие понятия общественное благо – это благо, предоставляемое потребителю бесплатно – воздух, солнце, ландшафт, дорога, медицина и т.д. – раньше – среднее образование в России. Некоторые общественные блага оплачиваются из средств налогоплательщиков.
За все остальные блага надо платить индивидуально. Отметим, что информация может быть как общественным благом, так и платным.
Так, информация о погоде, предоставленная ТВ – общественное благо. Информация о погоде для лётчика самолёта, предоставляемая в заданном виде и регламенте (стандарте) – платная услуга. Эта информация стоит дорого, т.к. для её получения используется мощная аппаратура, методика и квалифицированный труд специалистов, готовящих информацию в заданном стандарте. Информация, как общественное благо, предоставляется в стандарте Гидрометцентра.
Т.о., цена информации в данном случае может быть посчитана на основе известной методики определения рыночной цены товара, если иметь в виду синтаксическую компоненту:
мы снабжаем пилота или (автопилота) данными в требуемом формате, то есть информацией, на основе которой пилот принимает решение о курсе, скорости и т.п.
Цена информации с точки зрения семантики – это цена знания. Определение этой цены – задача сверхсложная, мы можем попытаться разобраться с одним подходом к такому оцениванию в случае конкретных знаний.
Рассмотрим пример выполнения проекта.
Пусть x = (x1,x2,…,xi,…,xn) – параметры "заказа" (дом x1 этажей, площадь - x2 м2, x3 – высота помещений…), y = (y1,y2,…,yj,…,yp) – параметры результата (стоимость, качество, надёжность, дизайн, удобство, экология…).
Для выполнения проекта можно воспользоваться знанием (метафизикой) z1. Применение к заказу с параметрами x даёт результат z1(x) = F(Y(1)) F(y1(1), y2(1) ,…, yp(1)).
В случае, если альтернативы нет, цена знания равна цене реализации проекта по единой (стандартной) методике (типовое строительство). Если альтернатива существует, то можно оценить выигрыш за счёт знаний. Методика z2.
z2(x) = F(Y(2)) = F(y1(2), y2(2) ,…, yp(2)).
Меры информации.
1. Синтаксическая мера информации.
Эта мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.
Объём данных Vд в сообщении измеряется количеством символов (разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес и соответственно меняется единица измерения данных:
В двоичной системе счисления единица измерения – бит (bit – binary digit – двоичный разряд). Наряду с минимальной единицей измерения данных "бит" широко используется укрупнённая единица измерения "байт", равная 8 бит.
Количество информации I на синтаксическом уровне невозможно определить без рассмотрения понятия неопределённости состояния системы (энтропии системы). Действительно, получение информации о какой-либо системе всегда связано с изменением степени неосведомлённости получателя о состоянии этой системы. Рассмотрим это понятие.
Пусть до получения информации потребитель имеет некоторые предварительные (априорные) сведения о системе . Мерой его неосведомлённости о системе является функция H(), которая в то же время служит и мерой неопределённости состояния системы.
После получения некоторого сообщения получатель приобрёл некоторую дополнительную информацию I(), уменьшившую его априорную неосведомлённость так, что апостериорная (после получения сообщения ) неопределённость состояния системы стала H().
Тогда количество информации I() о системе, полученной в сообщении определится так
I() = H()- H(),
т.е. количество информации измеряется изменением (уменьшением) неопределённости состояния системы.
Если конечная неопределённость H() обратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации I() = H(). Иными словами энтропия системы H() может рассматриваться как мера недостаточности информации.
Энтропия системы H(), имеющая N возможных состояний, согласно формуле Шеннона (1995г.), равна:
,
где Pi – вероятность того, что система находится в i-м состоянии.
Для случая, когда все состояния системы равновероятны, т.е. их вероятности равны , её энтропия определяется соотношением
.
Часто информация кодируется числовыми кодами в той или иной системе счисления. А особенно это актуально при представлении информации в компьютере. Естественно, одно и то же количество разрядов в разных системах счисления может передавать разное число состояний отображаемого объекта, что можно представить в виде соотношения
N = m n,
где N – число всевозможных отображаемых состояний;
m – основание системы счисления (разнообразие символов, применяемых в алфавите);
n – число разрядов (символов) в сообщении.
Пример: По каналу связи передаётся n-разрядное сообщение, использующее m различных символов. Так как количество всевозможных кодовых комбинаций равно N = m n, то при равновероятности появления любой из них количество информации, приобретённой абонентом в результате получения сообщения, будет равно I = n log m – формула Хартли.
Если в качестве основания логарифма принять m, то I = n. В данном случае количество информации (при условии полного априорного незнания абонентом содержания сообщения) будет равно объёму данных I = Vд, полученных по каналу связи.
Для неравновероятных состояний системы всегда I < Vд = n.
Наиболее часто используются двоичные и десятичные логарифмы. Единицами измерения в этих случаях будут соответственно бит и дит.