
- •Нулевое поколение (1492–1945)
- •Первое поколение (1937–1953)
- •Второе поколение (1954–1962)
- •Третье поколение (1963–1972)
- •Четвертое поколение (1972–1984)
- •Пятое поколение (1984–1990)
- •Шестое поколение (1990–)
- •.Области применения микропроцессоров
- •Информационные основи функционирования сои
- •Логические основы функционирования сои
- •Автоматы
Информационные основи функционирования сои
Термин «информация» не имеет точного и однозначного определнния.
Информация (informatio, informare)- изображать,разъяснять,излагать что-либо.
В общем случае информация –это совокупность различных знаний,сведений,сигналов о процессах и явлениях окружающего мира. Информация «вообще»-- не существует. Её существование связывают с получателем,(пользователем) в том числе и потенциальном
Основные свойства,признаки и характеристики научно-технической информации:
-неотрывность от физического носителя
-общественная и языковая природа
-сематический(смысловой) характер
-независимость от создателя, языка и носителя
-способ производства(безличный,персонифицированный)
-цель производства
-направление движения
-кумулятивность(стремление к сжатию)
-ценность, полезность, значимость
-степень достоверности
-степень новизны
-дискретный характер
-размах циркуляции в информационном поле
-время циркуляции
-рассеяние в пространстве и во времени
-эмоционнальная окраска
-неаддекватность,некоммуникативность инеассоциативность
Информация никогда не возникает сама собой. Её появление связано с затратами энергии, выполнением работы по создию сообщения. Сообщение также не являеться материальной или энергетической категорией.Информация есть сообщение+семантика т.е. сущность(смысл) сообщения можно понять при расмотрении его в связи с получателем, который и выделяет информацию из сообщения.
Информация особый вид ресурса, который не исчезает и не уменшаеться при его использовании.Таким образом информационный обмен в отличии материально-энергетического является несиметричным процесом. В любой системе происходит обмен информацией, но ее обработка только в СОИ. Таким образом эти процессы связаны с:
-теорией передачи и преобразования информации
-алгоритмическими и техническимим средствами обработки информации
В СОИ информация объект передачи, хранения и преобразования. Процесс решения любой задачи происходит следующим образом:
-ввод информации или установка исходных данных
-преобразование в соответсвии с заданным алгоритмом
-вывод информации
В результате преобразования новой информации не получаеться, происходит её упорядочивание, на это и затрачиваеться энергия. Информация передаеться материальными носителями, поэтому возникает необходимость определения меры (измерения количества и качества) информации.
Эти меры рассматриваються в 3-х аспектах структурном, статистическом и семантическом.
В структурной мере информации используються понятия:
Символ-элементарная и конструктивная единица соощения.
Слово-группа символов, которые и образуют сообшение о каком либо зарание оговореном событии.
Примеры:
а) Геометрическая мера предполагает измерение некоторых параметром в дискретных единицах в виде геомерических моделий
отрезок 0------------------1 сообщение одноразрядное слово либо 0 либо1
квадрат 10------------------11
I I
I I
I I
I I
00------------------10 сообщение 2-х разрядное слово 00,01.10,11
к
уб
сообщение
3-х разрядное
слово 000,001….111
б) Комбинационная меры:
Количество комбинаций из n элементов по l
Например n=4, l=2
24
I=---------=6; симвомы a,b,c,d коды о событиях: ab,ac,ad.bc,bd,cd
2*2
Количество перестановок
I=n! abcd,acbd,adbc,………I=24
Количество размещений с повторениями
l 2
I=n I=4 =16 aa,….ad,ba…
Условия статистической оценки количества информации:
-приемник(потребитель) информации правильно настроен на прием информации
-количество информации инвариантно(независимо) относительно способа кодирования
-в известном потребителю сообшении количество информации равно 0
-получив сообшение потребитель осуществляет выбор одного состояния(или действия) из некоторого набора вариантов.(каждое сообщение имеет свою вероятность)
-информационная функция—зависимость количества информации от количества вариантов выбора
В технических средах наиболее приемлемой является статистическая мера Шеннона Шеннон ввел понятие Энтроия (неопределенность ситуации)
где
=1
q-основание системы счисления
p-вероятность i-го состояния объекта или i-го события
Например:
Надо различать сам факт свершения события и факт получения информации
Если q=2 то это количество бит для передачи или хранения информации
Сушестцует версися о происхождении термина бит
Binary digit >bit
[didзit] –единичное число от0 до 9
--//-- unit в binary 0,1
Например колесо может иметь обороты от0 до 999 измерямое с точностью 1 оборот,
время замера количества оборотов произвольно то есть вероятность любого одного состояния из 1000 равновероятно и равно 1/1000
I=~10bit округление до наибольшого целого
256 различных символов передаваемых в канале связи без помех потребуют 8bit
Стуктурная статистическая оценка относятся к синтакчемкким аспектам.
Семантическая мера степень понимания (человеком) информации
Содержательность события—определяется как мера истиности или ложности.
Целесообразность информации–оцениваеться как вероятность достижения цели при получении дополнительной информации.
Iдоп=log2P1-log2 P0
P0—без дополнительной информацииКоличество
P1—с дополнительной информацией
Существеность информации-оценивается по многим параметрам:
По месту ипо времени
Количество семантической информации в сообщении
При устойчивой связи между количеством сематической Ic и статической I
Информацией в сообшении(документе)
Ic = I*ﻵc = Lзн*iб*ﻵс
Lзн—кол.знаков в документе
iб—удельная статистическая информация бит/буква
ﻵс--доля семантической информации
Тип текста iб ﻵс
технический 0.55 0.79
стихи 1.20 0.504
проза 0.86 0.613
Информационный поток –это совокупность отдельных сообщений воплощенных в сигналах и документах движущихся в пространстве и во времени от источников к получателям(потребителям).