Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекция1--2.doc
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
388.61 Кб
Скачать

Информационные основи функционирования сои

Термин «информация» не имеет точного и однозначного определнния.

Информация (informatio, informare)- изображать,разъяснять,излагать что-либо.

В общем случае информация –это совокупность различных знаний,сведений,сигналов о процессах и явлениях окружающего мира. Информация «вообще»-- не существует. Её существование связывают с получателем,(пользователем) в том числе и потенциальном

Основные свойства,признаки и характеристики научно-технической информации:

-неотрывность от физического носителя

-общественная и языковая природа

-сематический(смысловой) характер

-независимость от создателя, языка и носителя

-способ производства(безличный,персонифицированный)

-цель производства

-направление движения

-кумулятивность(стремление к сжатию)

-ценность, полезность, значимость

-степень достоверности

-степень новизны

-дискретный характер

-размах циркуляции в информационном поле

-время циркуляции

-рассеяние в пространстве и во времени

-эмоционнальная окраска

-неаддекватность,некоммуникативность инеассоциативность

Информация никогда не возникает сама собой. Её появление связано с затратами энергии, выполнением работы по создию сообщения. Сообщение также не являеться материальной или энергетической категорией.Информация есть сообщение+семантика т.е. сущность(смысл) сообщения можно понять при расмотрении его в связи с получателем, который и выделяет информацию из сообщения.

Информация особый вид ресурса, который не исчезает и не уменшаеться при его использовании.Таким образом информационный обмен в отличии материально-энергетического является несиметричным процесом. В любой системе происходит обмен информацией, но ее обработка только в СОИ. Таким образом эти процессы связаны с:

-теорией передачи и преобразования информации

-алгоритмическими и техническимим средствами обработки информации

В СОИ информация объект передачи, хранения и преобразования. Процесс решения любой задачи происходит следующим образом:

-ввод информации или установка исходных данных

-преобразование в соответсвии с заданным алгоритмом

-вывод информации

В результате преобразования новой информации не получаеться, происходит её упорядочивание, на это и затрачиваеться энергия. Информация передаеться материальными носителями, поэтому возникает необходимость определения меры (измерения количества и качества) информации.

Эти меры рассматриваються в 3-х аспектах структурном, статистическом и семантическом.

В структурной мере информации используються понятия:

Символ-элементарная и конструктивная единица соощения.

Слово-группа символов, которые и образуют сообшение о каком либо зарание оговореном событии.

Примеры:

а) Геометрическая мера предполагает измерение некоторых параметром в дискретных единицах в виде геомерических моделий

отрезок 0------------------1 сообщение одноразрядное слово либо 0 либо1

квадрат 10------------------11

I I

I I

I I

I I

00------------------10 сообщение 2-х разрядное слово 00,01.10,11

к уб сообщение 3-х разрядное слово 000,001….111

б) Комбинационная меры:

Количество комбинаций из n элементов по l

Например n=4, l=2

24

I=---------=6; симвомы a,b,c,d коды о событиях: ab,ac,ad.bc,bd,cd

2*2

Количество перестановок

I=n! abcd,acbd,adbc,………I=24

Количество размещений с повторениями

l 2

I=n I=4 =16 aa,….ad,ba…

Условия статистической оценки количества информации:

-приемник(потребитель) информации правильно настроен на прием информации

-количество информации инвариантно(независимо) относительно способа кодирования

-в известном потребителю сообшении количество информации равно 0

-получив сообшение потребитель осуществляет выбор одного состояния(или действия) из некоторого набора вариантов.(каждое сообщение имеет свою вероятность)

-информационная функция—зависимость количества информации от количества вариантов выбора

В технических средах наиболее приемлемой является статистическая мера Шеннона Шеннон ввел понятие Энтроия (неопределенность ситуации)

где =1

q-основание системы счисления

p-вероятность i-го состояния объекта или i-го события

Например:

Надо различать сам факт свершения события и факт получения информации

Если q=2 то это количество бит для передачи или хранения информации

Сушестцует версися о происхождении термина бит

Binary digit >bit

[didзit] –единичное число от0 до 9

--//-- unit в binary 0,1

Например колесо может иметь обороты от0 до 999 измерямое с точностью 1 оборот,

время замера количества оборотов произвольно то есть вероятность любого одного состояния из 1000 равновероятно и равно 1/1000

I=~10bit округление до наибольшого целого

256 различных символов передаваемых в канале связи без помех потребуют 8bit

Стуктурная статистическая оценка относятся к синтакчемкким аспектам.

Семантическая мера степень понимания (человеком) информации

Содержательность события—определяется как мера истиности или ложности.

Целесообразность информации–оцениваеться как вероятность достижения цели при получении дополнительной информации.

Iдоп=log2P1-log2 P0

P0—без дополнительной информацииКоличество

P1—с дополнительной информацией

Существеность информации-оценивается по многим параметрам:

По месту ипо времени

Количество семантической информации в сообщении

При устойчивой связи между количеством сематической Ic и статической I

Информацией в сообшении(документе)

Ic = I*c = Lзн*iб*ﻵс

Lзн—кол.знаков в документе

iб—удельная статистическая информация бит/буква

ﻵс--доля семантической информации

Тип текста iб ﻵс

технический 0.55 0.79

стихи 1.20 0.504

проза 0.86 0.613

Информационный поток –это совокупность отдельных сообщений воплощенных в сигналах и документах движущихся в пространстве и во времени от источников к получателям(потребителям).

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]