
- •1.Оптимизационные задачи.
- •2.Информатика как наука и учебный предмет.
- •1. Численная интерполяция и аппроксимация.
- •2. Кабинет информатики.
- •1.Численные методы решения систем линейных уравнений.
- •2. Методика преподавания информатики(мпи) как наука.
- •1.Принципы построения документальных систем. Информационный поиск в документальных ис. Релевантность, пертинентность, критерий смыслового соответствия. Информационно-поисковые языки.
- •2. Методы и формы обучения информатике. Выбор
- •1.Осн. Понятия теории баз данных (бд) и инф-ных сис-м (ис). Клас-ция ис и бд. Модели данных. Типы данных. Осн. Запросы. Понятие транзакции.
- •2. Урок инф-ки. Осн. Хар-ки урока. Требования к уроку инф-ки.
- •1.Базы данных. Сис-мы управл-я бд (субд). Осн. Ф-ции субд. Субд ms Access.
- •1.Обработка графической информации на эвм
- •2. Различные подходы к трактовке понятия задача
- •1.Обработка текстовой информации на эвм
- •2. Организация самостоятельной работы учащихся на уроке информатики
- •1.Компьютерные вирусы.
- •2. Методика изучения понятия «Информация» в школьном курсе информатики. Методика изучения темы «Измерение информации».
- •1.Сжатие данных. Архиваторы
- •2. Логико-дидактический анализ содержательной линии «Информация. Информационные процессы».
- •1.Программное обеспечение эвм, его основные характеристики. Классификация программного обеспечения
- •2. Роль и место понятия языка в школьном курсе информатики.
- •1.Локальные вычислительные сети.
- •2. Методика изучения темы «Системы счисления».
- •1.Использование глобальных сетей в сферах науки, образования, культуры и экономики
- •2. Методика изучения темы «Логические основы эвм».
- •15 «Компьютер и общество» роль.
- •16.Устройство пк.
- •23.Методика изучения языков структурного программирования. Синтаксическая характеристика языка программирования basic или pascal. Методика изучения основных операторов языка программирования
- •24. «Табличные величины.
- •2.Технология решения прикладной задачи на эвм. Методика изучения темы «Математическая модель». Этапы построения математической модели.
- •2.Технология решения прикладной задачи на эвм. Методика изучения темы «Математическая модель». Этапы построения математической модели.
24. «Табличные величины.
В-особое св-во реал-ых объектов или явл-й, особен-ть закл-ся в том, что св-во эт. мж. Измерить-назвать кол-во величины. Всякая В зан-т свое опред.место в памяти ЭВМ-ячейки памяти.В имеет 3 хар-ки:имя,зн-е,тип.В алг-ах и языках программ-я Вны делятся на константы и перемен-е.Массив- однородная упорядоченная структура прямого доступа.
Это набор величин одного и того же типа, называемых элементами массива, объединенных именем и адресуемых вычисляемым индексом. Сущест. признаки: однор.эл-ты состоят из строк и столбцов.Способы располож-я Эл-ов в таб.:линейн.(одномерн. Мас-в),прямоуг-й(двумер.мас-в) операции над массивами:1сортировка2поиск3 формир-е новых масс-в из исходного4 операции с Эл-ми:опред-е их сумм,произ. и т.д.Обработка массива в Basice^ Dim-имя масс-ва(размерность)Max размер-ть одномер. 255 двумер 255х255 Ввод Эл-ов масс-ва
1 сп: с клавы: DIM A(6) DIM A(3,4)
FOR I= 1 TO 6 FOR i=1 TO 3
Input A(i) FOR j= 1 TO 4
NEXT I Input B(I,J)
Next J
2 сп: С помю опер-ра data read.
3 сп. Оператор присв-я
Dim C$(5) dim B(3,5)
Data …. For i=1 to 3 For j=1 to 5
For i=1 to 5 B(I,j)
Read C$(i) next j
Next I next i
4cп случ образом
Dim O(10,10)
For i=1 to 10 For k=1 to 10
O(I,k)=int(Rnd(1)*20)
Next k next I end
Вывод массива:
1)1-мерный For I=1 to 6
? a(i)- в столбик, ? a(i); -в строку
Next i
2) For I=1 to 6
For j=1 to 5
? a(I, j)- в столбик, ? a(I,j); -в строку
Next j
?
Next i
Заполнение масс-ва случ.образом.RND (1) случ.числа от [0;1] вывод FOR I 1 to 6 a(i) в столбик.?-пустой переход на строчку.для обращения к Эл-ту масс-ва н/б/х указать имя масс.полностью и адрес масс.В BASICE при обращении к элту 2хмерного масс-ва вначале указ.№строки,затем№столбца.
Сортировка-это упорядочение элементов массива, например, по возрастанию или убыванию элементов по алфавиту или другим критериям.Внутр. сортировка, ее способы:1)метод «пузырька». Более легкие эл-ты «всплывают на поверхность раньше» 2)минимаксная сортировка. Суть её сост в том,что в ряде чисел осуществ поиск минимального числа и ставится в начало рядя,затем ряд обрабатывается со следующего числа,и наименьшее устанавливается в начало нового ряда,но оно окажется следующим после самоно минимального. 3)интервальная сортировка 4)пирамидальная сортировка. 5) шейкерная сортировка.
Пузырь: CLS
REM ввод элементов массива
DIM a(5)
FOR j=1 TO 5
INPUT a(J)
NEXT j
REM сортировка массива
FOR j=1 TO 4
k=5-j
FOR s=k TO 5
IF a(s)<=a(s+1) THEN 10
b=a(s)
a(s)=a(s+1)
a(s+1)=b
10 IF s=4 THEN 20
NEXT s
20 NEXT j
REM вывод массива
FOR j=1 TO 5
? A(j);
NEXT j
END
МИнимакс-я: CLS
REM ввод элементов массива
DIM A(5)
FOR J=1 TO 5
INPUT A(J)
NEXT J
REM сортировка массива
FOR J=1 TO 4
K=j
MIN=a(j)
FOR N=j TO 5
IF A(N)>MIN THEN 140
MIN=A(N)
K=N
140 NEXT N
IF J=K THEN 180
A(K)=A(J)
A(J)=MIN
180 NEXT J
REM вывод массива
FOR J=1 TO 5
? A(J);
NEXT J
END
Билет №25
1. Теория инфы – раздел математики, изучающий теорию систем передачи инфы. Инфа в быту — знания,сведения, ктр кого-л интересуют. Сведения (сообщения, данные) независимо от их формы представления. Свойства: объективность, достоверность, актуальность, доступность, понятность, эргономичность (удобство формы, объема), защищенность. Виды 1) по истинности: истинная, ложная 2) по способу восприятия Визуальная, Аудиальная, Тактильная, Обонятельная, Вкусовая 3) по форме представления Текстовая, Числовая, Графическая, Звуковая 4) по назначению Массовая, Специальная, Секретная, Личная. 2 вида: непрерывная (аналоговая) и дискретная. Аналоговый сигнал представляется в виде непрерывного изменения формы (инфа с пом. органов чувств). Дискретный сигнал пред-ся в виде последовательности сигналов определенной формы (азбука морзе, часы). Кол-во инфы м/рассматривать как меру уменьшения неопределенности знания. Формула, связывающая м/у собой кол-во возможных информационных сообщений N и кол-во инфы I, ктр несет полученное сообщение: N = 2i. Единица измерения инфы – бит. 1байт=8бит, 1Кбайт=1024байта, 1Мбайт=1024Кбайта. СС – способ представления чисел и соот-щие ему правила действий над числами. СС: непозиционные (знач-е цифры в записи числа не зависит от её позиции внутри числа, римская), позиционные (знач-е цифры зависит от её позиции, 10ая СС). Кодирование – процесс преобразования слов над одним алфавитом в слова над др. алфавитом. Алфавит – нектр конечное мн-во эл-ов. Эл-нт алфавита – символ/буква. Кол-во эл-ов алфавита – мощность. Словом над алфавитом А наз-ся не пустая произвольная последовательность букв. Алфавитным кодированием наз-ся соотношение, задаваемое правилом при ктр кжд эл-ту алфавита А ставится в соот-ие эл-нт алфавита В. Код наз-ся разделимым если никаким двум словам кодируемого алфавита не м/б сопоставлен один и тот же код. Коды бывают постоянной и переменной длины. Код пер-ной длины: Азбука МОРЗЕ - троичный код с набором знаков: точка, тире, пауза. Пауза нбх как разделитель м/у буквами и словами, т.к. длина кода непостоянна. Применение кодов с пост-ой длиной позволяет использовать всего лишь два знака (двоичный код). Префиксным код-алфавитный код, в ктр ни одно из кодовых слов не явл-ся префиксом никакого др кодового слова. Любой префиксный код - разделимый. Нер-во Крафта — Макмиллана даёт нбх и достаточное условие сущ-ия разделимых и префиксных кодов, обладающих заданным набором длин кодовых слов. Пусть заданы кодируемый и кодирующий алфавиты, состоящие из n и d символов, соот-но, и заданы желаемые длины кодовых слов: l1,l2,…ln . Тогда нбх и достаточным условием сущ-ия раз-го и преф-го кодов, обладающих заданным набором длин кодовых слов, явл-ся выполнение нер-тва:
Кодирование Хаффмана
Идея алгоритма: зная вероятности символов в сообщении, м/описать процедуру построения кодов переменной длины, состоящих из целого количества битов. Символам с большей вероятностью ставятся в соот-ие более короткие коды. Коды Хаффмана обладают свойством префиксности.
Алгоритм Хаффмана на входе получает таблицу частот встречаемости символов в сообщении. На основании таблицы строится дерево кодирования. Символы входного алфавита образуют список свободных узлов. Кжд лист имеет вес, ктр м/б равен либо вероятности, либо кол-ву вхождений символа в сжимаемое сообщение. Выбираются два свободных узла дерева с наименьшими весами.
Создается их родитель с весом, равным их суммарному весу. Родитель добавляется в список свободных узлов, а два его потомка удаляются из этого списка. Одной дуге, выходящей из родителя, ставится в соот-ие бит 1, другой — бит 0. Шаги, начиная со второго, повторяются до тех пор, пока в списке свободных узлов не останется только один свободный узел. Он и будет считаться корнем дерева.
Коды Хемминга наиболее известные и, вероятно, первые из самоконтролирующихся и самокорректирующихся кодов. Построены они применительно к двоичной системе счисления.