Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
inform.docx
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
231.61 Кб
Скачать

24. «Табличные величины.

В-особое св-во реал-ых объектов или явл-й, особен-ть закл-ся в том, что св-во эт. мж. Измерить-назвать кол-во величины. Всякая В зан-т свое опред.место в памяти ЭВМ-ячейки памяти.В имеет 3 хар-ки:имя,зн-е,тип.В алг-ах и языках программ-я Вны делятся на константы и перемен-е.Массив- однородная упорядоченная структура прямого доступа.

Это набор величин одного и того же типа, называемых элементами массива, объединенных именем и адресуемых вычисляемым индексом. Сущест. признаки: однор.эл-ты состоят из строк и столбцов.Способы располож-я Эл-ов в таб.:линейн.(одномерн. Мас-в),прямоуг-й(двумер.мас-в) операции над массивами:1сортировка2поиск3 формир-е новых масс-в из исходного4 операции с Эл-ми:опред-е их сумм,произ. и т.д.Обработка массива в Basice^ Dim-имя масс-ва(размерность)Max размер-ть одномер. 255 двумер 255х255 Ввод Эл-ов масс-ва

1 сп: с клавы: DIM A(6) DIM A(3,4)

FOR I= 1 TO 6 FOR i=1 TO 3

Input A(i) FOR j= 1 TO 4

NEXT I Input B(I,J)

Next J

2 сп: С помю опер-ра data read.

3 сп. Оператор присв-я

Dim C$(5) dim B(3,5)

Data …. For i=1 to 3 For j=1 to 5

For i=1 to 5 B(I,j)

Read C$(i) next j

Next I next i

4cп случ образом

Dim O(10,10)

For i=1 to 10 For k=1 to 10

O(I,k)=int(Rnd(1)*20)

Next k next I end

Вывод массива:

1)1-мерный For I=1 to 6

? a(i)- в столбик, ? a(i); -в строку

Next i

2) For I=1 to 6

For j=1 to 5

? a(I, j)- в столбик, ? a(I,j); -в строку

Next j

?

Next i

Заполнение масс-ва случ.образом.RND (1) случ.числа от [0;1] вывод FOR I 1 to 6 a(i) в столбик.?-пустой переход на строчку.для обращения к Эл-ту масс-ва н/б/х указать имя масс.полностью и адрес масс.В BASICE при обращении к элту 2хмерного масс-ва вначале указ.№строки,затем№столбца.

Сортировка-это упорядочение элементов массива, например, по возрастанию или убыванию элементов по алфавиту или другим критериям.Внутр. сортировка, ее способы:1)метод «пузырька». Более легкие эл-ты «всплывают на поверхность раньше» 2)минимаксная сортировка. Суть её сост в том,что в ряде чисел осуществ поиск минимального числа и ставится в начало рядя,затем ряд обрабатывается со следующего числа,и наименьшее устанавливается в начало нового ряда,но оно окажется следующим после самоно минимального. 3)интервальная сортировка 4)пирамидальная сортировка. 5) шейкерная сортировка.

Пузырь: CLS

REM ввод элементов массива

DIM a(5)

FOR j=1 TO 5

INPUT a(J)

NEXT j

REM сортировка массива

FOR j=1 TO 4

k=5-j

FOR s=k TO 5

IF a(s)<=a(s+1) THEN 10

b=a(s)

a(s)=a(s+1)

a(s+1)=b

10 IF s=4 THEN 20

NEXT s

20 NEXT j

REM вывод массива

FOR j=1 TO 5

? A(j);

NEXT j

END

МИнимакс-я: CLS

REM ввод элементов массива

DIM A(5)

FOR J=1 TO 5

INPUT A(J)

NEXT J

REM сортировка массива

FOR J=1 TO 4

K=j

MIN=a(j)

FOR N=j TO 5

IF A(N)>MIN THEN 140

MIN=A(N)

K=N

140 NEXT N

IF J=K THEN 180

A(K)=A(J)

A(J)=MIN

180 NEXT J

REM вывод массива

FOR J=1 TO 5

? A(J);

NEXT J

END

Билет №25

1. Теория инфы – раздел математики, изучающий теорию систем передачи инфы. Инфа в быту — знания,сведения, ктр кого-л интересуют. Сведения (сообщения, данные) независимо от их формы представления. Свойства: объективность, достоверность, актуальность, доступность, понятность, эргономичность (удобство формы, объема), защищенность. Виды 1) по истинности: истинная, ложная 2) по способу восприятия Визуальная, Аудиальная, Тактильная, Обонятельная, Вкусовая 3) по форме представления Текстовая, Числовая, Графическая, Звуковая 4) по назначению Массовая, Специальная, Секретная, Личная. 2 вида: непрерывная (аналоговая) и дискретная. Аналоговый сигнал представляется в виде непрерывного изменения формы (инфа с пом. органов чувств). Дискретный сигнал пред-ся в виде последовательности сигналов определенной формы (азбука морзе, часы). Кол-во инфы м/рассматривать как меру уменьшения неопределенности знания. Формула, связывающая м/у собой кол-во возможных информационных сообщений N и кол-во инфы I, ктр несет полученное сообщение: N = 2i. Единица измерения инфы – бит. 1байт=8бит, 1Кбайт=1024байта, 1Мбайт=1024Кбайта. СС – способ представления чисел и соот-щие ему правила действий над числами. СС: непозиционные (знач-е цифры в записи числа не зависит от её позиции внутри числа, римская), позиционные (знач-е цифры зависит от её позиции, 10ая СС). Кодирование – процесс преобразования слов над одним алфавитом в слова над др. алфавитом. Алфавит – нектр конечное мн-во эл-ов. Эл-нт алфавита – символ/буква. Кол-во эл-ов алфавита – мощность. Словом над алфавитом А наз-ся не пустая произвольная последовательность букв. Алфавитным кодированием наз-ся соотношение, задаваемое правилом при ктр кжд эл-ту алфавита А ставится в соот-ие эл-нт алфавита В. Код наз-ся разделимым если никаким двум словам кодируемого алфавита не м/б сопоставлен один и тот же код. Коды бывают постоянной и переменной длины. Код пер-ной длины: Азбука МОРЗЕ - троичный код с набором знаков: точка, тире, пауза. Пауза нбх как разделитель м/у буквами и словами, т.к. длина кода непостоянна. Применение кодов с пост-ой длиной позволяет использовать всего лишь два знака (двоичный код). Префиксным код-алфавитный код, в ктр ни одно из кодовых слов не явл-ся префиксом никакого др кодового слова. Любой префиксный код - разделимый. Нер-во Крафта — Макмиллана даёт нбх и достаточное условие сущ-ия разделимых и префиксных кодов, обладающих заданным набором длин кодовых слов. Пусть заданы кодируемый и кодирующий алфавиты, состоящие из n и d символов, соот-но, и заданы желаемые длины кодовых слов: l1,l2,…ln . Тогда нбх и достаточным условием сущ-ия раз-го и преф-го кодов, обладающих заданным набором длин кодовых слов, явл-ся выполнение нер-тва:

Кодирование Хаффмана

Идея алгоритма: зная вероятности символов в сообщении, м/описать процедуру построения кодов переменной длины, состоящих из целого количества битов. Символам с большей вероятностью ставятся в соот-ие более короткие коды. Коды Хаффмана обладают свойством префиксности.

Алгоритм Хаффмана на входе получает таблицу частот встречаемости символов в сообщении. На основании таблицы строится дерево кодирования. Символы входного алфавита образуют список свободных узлов. Кжд лист имеет вес, ктр м/б равен либо вероятности, либо кол-ву вхождений символа в сжимаемое сообщение. Выбираются два свободных узла дерева с наименьшими весами.

Создается их родитель с весом, равным их суммарному весу. Родитель добавляется в список свободных узлов, а два его потомка удаляются из этого списка. Одной дуге, выходящей из родителя, ставится в соот-ие бит 1, другой — бит 0. Шаги, начиная со второго, повторяются до тех пор, пока в списке свободных узлов не останется только один свободный узел. Он и будет считаться корнем дерева.

Коды Хемминга наиболее известные и, вероятно, первые из самоконтролирующихся и самокорректирующихся кодов. Построены они применительно к двоичной системе счисления.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]