- •1) Понятие инф-ии. Непрерывная и дискретная инф-ия. Системы счисления, формы представления инф-ии. Измерение и кодирование инф-ии. Формула Шеннона.
- •2)Понятие алгоритма, требования к алгоритмам и способы записи. Разработка алгоритмов на основе структурного подхода, примеры.
- •4)Реализация алгоритмических структур в языках программирования. Примеры.
- •5) Понятие класса. Процедуры и функции, статические методы класса и особенности работы с ними.
- •6) Концепция инкапсуляции и ее применение на основе простых и векторных св-в классов.
- •7) Концепция полиморфизма и ее применение на основе виртуальных и динамических методов.
- •8) Концепция наследования. Формы наследования. Реализация и использование в объектно-ориентированных языках программирования.
- •9) Численные методы решения нелинейных уравнений с одним неизвестным.
- •10) Постановка задачи интерполяции. Интерполяционные полиномы.
- •11) Численное интегрирование. Квадратурные формулы.
- •12) Архитектура эвм. Принцип программного управления.
- •13) По эвм и его классификация.
- •14) Текстовые редакторы. Назначение, основные возможности, принципы работы с ними.
- •15)Растровая и векторная графика. Граф редакторы. Назначение. Основные возможности.
- •16) Табличные процессоры. Назначение, основные возможности.
- •17) Бд и их классификация. Системы управления реляционными бд. (ms Access).
- •18) Структура, протоколы взаимодействия частей и инструменты разработки информационных систем на базе web-сервера.
- •19) Классификация компьютерных сетей по топологии и методам доступа. Модель osi. Протоколы tcp/ip.
- •20) Internet. Услуги Internet. Адресация и маршрутизация в сети Internet.
- •21) Экономический смысл задач матем-кого программирования. Постановка задачи линейного программирования. Графический метод решения.
- •22) Понятие «модель». Цели моделирования. Детерминированные и стохастические процессы.
- •1)Дидактич принципы обучения. Типы знаний и формы обуч-я. Элект средства учеб назначения их типология по функцион-ному и методич назначению.
- •2) Дидактические, методические и др требования к эс учебного назначения.
- •3) Электронный учебник (эу). Струк орган и требования. Классификация.
- •4) Дидактические принципы тестирования. Требования к тестам. Классификация и критерии оценивания. Разработка тестов и особенности подготовки материалов тестирования
- •5) Оценка кач-ва эс учеб назначения. Состав и структура оценочного листа кач-ва.
- •6) Классификация эс учебного назначения.
- •7) Учебно-методический комплекс. Структура, компоненты.
- •8) Хар-ка эос. Примеры исп-я возмож в образ целях.
- •9) Учебные бд. Учебные базы знаний.
- •1) Инф-ка как наука и учебный предмет в сред школе
- •2) Методическая система обучения инф-ке в школе, хар-ка ее осн компонентов.
- •3) Цели и задачи обуч-я информатике в средней школе. Структура обучения инф-ки в средней школе.
- •4) Пропедевтика основ инф-ки в нач шк. Цели и задачи обуч инф-ки, сод-е, сред и методы.
- •5) Базовый курс шк инф-ки. Цели и задачи обуч-я. Сод-е, реком методы обуч-я.
- •6) Профильное обучение инф-ке на стар степени школы. Электив курсы. Сред и методы обучения в стар шк
- •7) Средства и методы обуч инф в сред шк
- •8) Научно-методические основы изучения раздела: «Инф-ия. Инф-ные процессы»
- •9) Научно-методические основы изучения раздела «инф-ное моделирование» в сред шк.
- •10)Методика изучения раздела «Инф-ия и инф-ные процессы»
- •11)Методика изуч раздела «алгоритмы и программирование» в сред школе.
- •12) Методика изуч раздела «комп-р и его по» в сред школе.
- •13) Методика изучения раздела «Инф-ные технологии» в средней школе
1) Понятие инф-ии. Непрерывная и дискретная инф-ия. Системы счисления, формы представления инф-ии. Измерение и кодирование инф-ии. Формула Шеннона.
Инф-ия- это одно из фундаментальных понятий, наряду с такими, как вещество и энергия. Оно относится к числу фундаментальных в науке, носит философский характер и явл-ся предметом постоянных научных дискуссий. В науке и в практике известны различные подходы к инф-ции, и в рамках каждого из них дается определение этого понятия. Однако все выделяют общие св-ва инф-ции: Достоверность; Полнота; Актуальность; Ценность; Понятность; Объективность.
Сущ. 2 основных подхода к понятию инф-ции и оценке кол-ва инф-и:
1) субъективный = вероятностный = содержательный: инф-ция рассматривается с точки зрения ее роли в жизни и деятельности человека. В наиболее общем определении - это отражение предметного мира с помощью знаков и сигналов. Это знания, сведения, кот-ми обладает человек, кот. он получает из окружающего мира. В нем можно определить, какое сообщение более информативно, а какое менее. Информация рассматривается как знания: декларативные и процедурные. Данный подход дает определение бита, в дальнейшем используемое д. измерения инф-ции. i=log21/p, где i – кол-во инф-ции в сообщении о событии, p – вероятность события. i=1бит, если p=1/2. Но это очень узкий подход и работает только с равновероятными событиями.
2) объективный = кибернетический = алфавитный: И.-любая совокупность сигналов,воздействий или сведений,которые воспринимаются системой из окруж.среды,выдаются в нее,а также хранятся в себе. Именно этот подход позволяет создавать машины, работающие с инф-цией. Т.о. когда речь идет об автоматической передаче инф-ции, ее хранении и переработке, то инф-ция - это произвольная последовательность символов из некоторого алфавита; каждый новый символ при этом увеличивает количество инф-ции. В этом случае все виды инф. процессов сводятся к действиям над символами, что и происходит в технич. системах. Кибернетический подход – это единственный способ измерения инф-ции, кот. может применяться по отношению к инф-ции, циркулирующей в инф. технике и компах. Кол-во инф-ии, кот. несет в тексте каждый символ (i), выч-ся из уравнения Хартли: 2i = N (Здесь i – инф-ционный вес символа, а N – число символов в алфавите, или мощность алф-та). Мин. мощность алф-та, пригодного д. передачи инф-ии, = 2. Такой алф-т называют 2-чным. Из формулы очевидно, что 1 символ 2-чного алф-та несет 1 бит инф-ции. Инф-цию принято представлять в виде языков, естественных и формальных [делятся на 1) языки информатики и 2) другие – муз., математич].
Разнообразие инф-ции отражается в двух формах - непрерывной и дискретной. Объекты и явления характ-ся значениями физич. вел-н (массой, температурой и т.д.). Природа некот. ве-н такова, что вел-на может принимать принципиально любые знач-я в каком-то диапазоне. Эти зн-я могут быть сколь угодно близки друг к другу, исчезающе малоразличимы, но все-таки, хотя бы в принципе, различаться, а кол-во зн-ий, кот. может принимать такая вел-на, бесконечно велико. Такие вел-ны наз-ся непрер. вел-нами, а инф-ция, кот-ю они несут в себе, непрер-ой инф-цией. Слово "непрерывность" отчетливо выделяет основное св-во таких вел-н - отсутствие разрывов, промежутков между значениями, кот. может принимать вел-на. Непрерывны физич. вел-ны.
Кроме непрер., сущ-ют иные вел-ны (например, количество людей в комнате, количество электронов в атоме и т.д.). Такого рода вел-ны могут принимать только целые зн-ия и не могут иметь дробных значений. Вел-ны, принимающие лишь вполне определенные зн-ия, наз-ют дискретными. Можно утверждать, что различие между двумя формами инф-ции обусловлено принципиальным различием природы вел-н. В то же время непрер. и дискр. инф-ция часто исп-ся совместно д. представления сведений об объектах и явлениях.
Что объединяет непрер. и дискр. вел-ны? В кач-ве простого примера рассмотрим весы. Масса тела, измеряемая на них, - вел-на непрер. по своей природе. Чтобы охаракт-ть массу, в весах традиционно исп-ся шкала. При этом масса будет характ-ся конечным, т.е. дискретн. набором значений. Таким образом, инф-ция о непрер. вел-не, массе тела, приобрела дискр. форму. Получим, что любую непрер. вел-ну можно представить в дискр. форме. Но по дискр. представлению восстановить непрер. вел-ну можно лишь приближенно.
Кроме рассмотренных существуют и другие формы представления дискр. инф-ции. Например, чертежи и схемы содержат в себе графическую инф-цию. Любая инф-ция хранится в виде кодов. Запись в тетради не что иное, как кодирование с помощью специальных символов букв, здесь система кодирования называется алфавит. Звуковую инф-ию можно записать с помощью нот.
Символьная инф-ция может представляться с исп-ием самых различных алфавитов без искажения содержания и смысла инф-ции: при необходимости можно изменять форму представления инф-ции - вместо общепринятого алфавита исп-ть какой-либо другой, искусственный алфавит, например, двухбуквенный. Форма представления инф-ции, отличная от естественной, общепринятой, называется кодом. Коды широко применяются в ЭВМ и в аппаратуре передачи данных.
Система счисления – это опред. способ представления чисел и соответствующие ему правила действия над числами. СС бывают позиционные и непозиционные. В непозиц. значение, кот. несет цифра в числе, не зависит от позиции этой цифры (римские числа). В позиционн. знач-е, кот несет каждая цифра числа, зависит не только от того, какая это цифра, но и от позиции, кот. она занимает в числе (арабск числа). Основанием СС наз-ся размер алфавита.
В основу кодирования в ЭВМ положена двоичная СС, так как технические устройства могут со 100% надежностью сохранять и распознавать не более 2х различных состояний. Для инженеров наиболее просто реализовать двоичный элемент: включено/выключено. Кроме того, в двоичной системе наиболее просто реализуются все операции. Цифровую инф-цию удобно кодировать, а значит удобно хранить и обрабатывать. Текстовую инф-цию принято кодировать с помощью кодов ASCII; цвет представляется в виде комбинации трёх основных цветов: красного, зелёного и синего, каждый из кот. кодируется 1 байтом. Звук кодируется путем разбиения сигнала по времени и регистрации его уровня в дискретные моменты.
Разработаны различные способы оценки количества инф-ции. В технике чаще всего используется способ оценки, предложенный в 1948 году основоположником теории инф-ции Клодом Шенноном.
Кол-во инф-ции I, харак-щей состояние, в кот. пребывает объект, можно определить, используя формулу Шеннона: I = -(p[1]*log(p[1])+p[2]*log(p[2])+...+p[n]*log(p[n])) n - число возможных состояний; p[1],...p[n] - вероятности отдельных состояний; log( ) - функция логарифма при основании 2.
H=-∫p(x)logp(x)dx (от ∞ до ∞) – формула Шеннона для непр.инф.
Единица инф-ции наз-ся битом, "Binary digiT". 1 бит инф-ции – кол-во инф-ции, посредством кот-го выделяется одно из двух равновероятных состояний объекта. Это наименьшая единица инф-ции в инф-ке. Формула Шеннона, в принципе, может быть использована и д. оценки кол-ва инф-ции в непрер. вел-нах. При оценке кол-ва дискр. инф-ции при равновероятных событиях часто используется также формула Хартли: 2i = N, где N - число возможных равновероятных состояний.