
- •Начальный этап ит (разработка ит)
- •Структура и компоненты ит
- •Информационная база автоматизированных систем.
- •Сигналы и знаки.
- •СимволыСигнал
- •Теория сигналов. Статистика. Теория формаций.
- •Теорема Шеннона для дискретного канала без шума
- •Статистическое (эффективное) кодирование
- •Пропускная способность дискретного канала с шумом
- •Основная теорема Шеннона для дискретного канала с шумом
- •Основные виды преобразования информации. К основным видам преобразования относятся:
- •Предметные и проблемные области автоматиз Системы
- •Основные свойства энтропии.
- •Cреднее количество взаимной информации. (дискретный случай)
- •Основы (элементы) статистической теории информации. Количественная мера информации. Количество информации при конечном числе равновозможных исходов.
- •Количество информации как случайная величина. Энтропия.
- •Основные свойства энтропии
- •Основные свойства среднего количества в заемной информации:
- •Информационные характеристики
- •Источников дискретных сообщений.
- •Понятие эргодического источника
- •Дискретных сообщений.
- •Энтропия эргодического источника дискретных сообщений.
- •Понятие скорости передачи и пропускной способности канала
- •Основы информационных процессов. Восприятие информации. Процесс восприятия информации и его особенности.
- •Обобщенная схема процесса восприятия информации
- •Построение таблицы декодирования в групповых систематических кодах.
- •Обработка информации.
- •Представление, накопление и хранение информации.
Основные виды преобразования информации. К основным видам преобразования относятся:
функциональное преобразования (изменение характеристик сигнала без потерь полезной информации)
Квантование сигнала по уровню. Дисперсия шума квантования D. Если 1=…=i=…=k=, то дисперсия шума определяется формулой:
D=2/12.
3. Дискретизация сигнала во времени.
Теорема Котельникова: Если ширина спектра сигнала равна с , то сигнал без потерь информации может быть передан своими дискретными отсчетами через интервал времени.
t=1/2*с
Кодирование (интерфейсное, статистическое, помехоустойчивое)
Модуляции:
модуляции гармонических колебаний (амплитудная, частотная, фазовая)
импульсная модуляция ( амплитудно- импульсная, широтно- импульсная, частотно- импульсная, фазово- импульсная)
Импульсно-кодовая модуляция предполагает дискретизацию сигнала во времени и квантование по уровню.
a(t)=A*cos(*t+)
ЧМ+ФМ=УМ (угловая модуляция)
Модуляционный сигнал c(t):
Лекция 6
Применение находят экспертные системы, основанные на использовании принципов организации естественных нейронных систем. Нейрокомпьютеры (обычный компьютер + нейроплата или специально реализованные принципы нейросистемы ) используются в банковских целях (считывание чеков и финансовых документов, проверка достоверности подписи, прогнозирование изменения курсов валют), страховых компаниях, военном деле, промышленности и т.д.
Структуры и компоненты ИТ
Зарисуем схему структуры ИТ
Информационно технологические процессы– совокупность взаимосвязанных функциональных процессов автоматизации системы, обусловленных ее целевым назначением.
Различают также обеспечивающий информационный процесс. Это процессы связанные с функционированием ОС, СУБД, сетевого ПО и т.д.
Опорная база информационных технологий – совокупность ПППП и других средств автоматизации ИТ, которые не зависят от ПППП предметной области (hardware,software).
Предметные и проблемные области автоматиз Системы
Предметная область – совокупность предметов ( объектов, явления, процессов, их свойств и связей между ними), составляющих область деятельности некоторой системы.
Объектом предметной области может быть человек, подсистема или ее элемент, событие, место, понятие и т.д.
Проблемная область – совокупность задач (проблем), решаемых предметной областью (например ППП задача о погоде, о товаре, задача резервирования билетов и т.д).
Модель предметной области – совокупность описания, отражающих предметную область.
Основные свойства энтропии.
Энтропия одномерной случайной величины ( одномерного случайного ансамбля) Х – величина неотрицательная. Н(Х)0.
Равенство нулю имеет место тогда и только тогда, когда все вероятности ансамбля, за исключением одной, равны нулю, а эта – единственная единица.
Н(Х)0
Н(Х)=-p(xi)*log2p(xi);
i=1…n
-p(xi)*log2p(xi)>0
0<p(xi)<1
Энтропия ансамблей максимальна и равна Нmax(X)=log2n, где n – число событий данного ансамбля только в том случае, если р(х1)=…=р(хi)=…=р(хn)=1/n, т. е. события равновероятны .
p(xi,yj) 1in
M[X,Y]=?
M(X)=M{I(xi)}
M(X,Y)=M{ I(xi ,yj)}= p(xi ,yj)*log2 p(xi ,yj),
i=1…n, j=1…m
I(xi,yj)=log2(pc(xi ,yj)/ p(xi ,yj))=-log2 p(xi ,yj)
I(xi,yj)=- log2 p(xi ,yj)
M(X,Y)M(X)+M(Y)
Равенство имеет место только в том случае, если событие независимо.
p(xi ,yj)= p(xi)*p(yj )
Двумерная случайная величина задается таблицей:
|
y,x |
Х1 |
… |
Хi |
… |
Хn |
p(y1) |
y1 |
p11 |
… |
p1i |
… |
p1n |
… |
… |
… |
… |
… |
… |
… |
p(yi) |
yi |
pi1 |
… |
pii |
… |
pin |
… |
… |
… |
… |
… |
… |
… |
p(yn) |
yn |
pn1 |
… |
pni |
… |
pnn |
|
p(x1) |
|
|
p(xi) |
|
p(xn) |
H(x,y)-?
H(x)=M{I(xi)}
H(x,y)= M{I(xi,yj)}= p(xi ,yj)*log2 (xi ,yj)
H(X,Y)=- p(xi ,yj)*log2 p(xi ,yj), (1)
p(xi ,yj)= p(xi)* p(yj/xi) (2)
p(xi ,yj)= p(yj )* p(xi /yj) (3)
Подставим (2) в (1) и выполним преобразования:
H(X,Y)=- p(xi)*p(yj/xi)*log2[p(xi)*p(yj/xi)]=- p(xi)*log2p(xi)*p(yj/xi)-
-p(xi) p(yj/xi)* log2 (yj/xi)=- p(xi)*log2p(xi)- p(xi) p(yj/xi)* log2 (yj/xi)=
=H(X)+H(Y/X)
H(Y/X) – условная энтропия ансамбля
Если подставить (3) в (1), то получим:
H(X,Y)=H(Y)+H(X/Y),
где H(Y)=- p(yj )* log2 p(yj)
H(X/Y)=- p(yj ) p(yj/xi)* log2 p(xi /yj)
H(Y/X)=M{H(y/xi )}= p(xi) H(Y/X)
H(y/xi) – частная энтропия
H(y/xi)=M{I(yj /xi )}=- p(yj/xi)* log2 p(yj/xi)