
- •1. Алгоритмы сжатия изображений.
- •2 Аппаратное обеспечение мультимедиа.
- •3Виды и принцип действия cd-rom.
- •4 Виды памяти.
- •5Использование звука . Стандарты звуковых карт
- •6. Организация сетей для передачи мультимедиа-данных.
- •7 Синтезированные звуковые карты с частотной модуляцией.
- •8 Составляющие изображения, технология ускорения графики.
- •9 Способы передачи мультимедиа-данных в сетях.
- •10 Технология видеодисплеев
- •12 Организация виртуальной памяти.
- •13 Стратегии замещения и размещения страниц. Принцип локальности
- •14 Этапы загрузки операционных систем (Unix, Windows nt).
- •14. Этапы загрузки операционных систем (Unix, Windows nt).
- •15 Организация фс fat , основные элементы структуры.
- •16 Организация файловой системы fat32 отличия от fat16, преимущества.
- •17 Особенности организации файловой системы unix. Файловая система. Типы файлов.
- •18. Структура каталогов ос Linux. Файловая система ос Linux ext2fs, ext3fs.
- •Система адресации данных ext2 — это одна из самых важных составляющих фс. Она позволяет находить нужный файл среди множества как пустых, так и занятых блоков на диске.
- •19 Базовая файловая система s5fs.
- •Управление процессами в ос Unix. Типы процессов.
- •21Алгоритмы управления памятью в ос unix, Linux. Замещение страниц.
- •22. Загрузка ос Windows nt. Особенности Windows nt
- •23. Файловая система ntfs. Структура, особенности, преимущества ntfs
- •24. Управление памятью в Windows nt. Стратегии выборки, размещения и замещения страниц.
- •25. Язык Java. Особенности языка. Средства для разработки приложений. (jdk). Пакеты. Простейшая программа, компиляция и запуск.
- •26. Комментарии и встроенная документация. Спецификаторы доступа к классам и полям класса в Java. Public, protected и private
- •27. Интерфейсы Реализация интерфейсов. Ключевое слово static, ключевое слово this.
- •28. Апплеты. Структура и методы апплета. Вызов апплета.
- •29. Исключительные ситуации. Обработка исключительных ситуаций
- •30. Программирование отношений типа «Является», «Имеет», «Использует», «Создает».
- •31. Потоки Создание и запуск потока.
- •32. Синхронизация потоков.
- •33. Система ввода-вывода в Java. Работа с файлами.
- •34. Библиотека Swing. Основные компоненты Реализация пользовательского интерфейса.
- •35. Библиотеки jdbc, подключение к базе данных. (Объект Connection)
- •36. Реализация запроса sql и обработка результатов. (Объекты .Statement и Resultset)
- •37. Сервлеты, структура и организация. Методы жизненного цикла.
- •38. Jsp, структура и организация. Класс Session.
- •39. Основы технологии ejb. Основные цели. Ejb-компонента, ejb-объект, ejb- контейнер.
- •Цели, лежащие в основе технологии ejb
- •40 Entity Bean. Жизненный цикл.
- •41 Модели жизненного цикла
- •43 Диаграммы потоков данных
- •44 Функциональное тестирование
- •Функциональное тестирование включает:
- •45 Методы разработки программ (Метод джексона и метод Вареье орра)
- •46 Модели качества процессов конструирования.
- •47 Структурное программирование
- •48. Модульное программирование
- •49 Способы реализации алгоритмов
- •50 Методы доказательства правильности программ и алгоритмом
- •51 Центральные проекции
- •52 Параллельные проекции
- •53. Двумерные аффинные преобразования.
- •54. Трехмерные аффинные преобразования
- •55 Описание и построение составных поверхностей
- •56 Построение составных поверхностей Эрмита
- •57 Построение составных поверхностей Безье
- •58 Построение составных поверхностей методом в-сплайнов
- •59. Классификация методов моделирования. Методы моделирования твердого тела.
- •60. Модели объемных тел . Алгебрологическая граничная модель.
- •61 Модели объемных тел. Модель конструктивной геометрии трехмерного объекта.
- •62. Модели объемных тел. Кусочно-аналитические граничные модели.
- •63 Классификация интеллектуальных ис
- •Структура экспертных систем (эс).
- •Этапы разработки эс.
- •Классификация эс.
- •Инструментальные средства разработки эс.
- •68 Системы, основанные на продукционных моделях представления знаний.
- •69 Семантические сети
- •70 Логический вывод на основе субъективных вероятностей
- •5.2. Распространение вероятностей в эс
- •72 Метод экспертного оценивания.
- •73. Классификация методов моделирования. Моделирование скульптурных поверхностей.
- •77. Основные классы задач, решаемые искусственными нейронными сетями (инс).
- •78. Математическая модель искусственного нейрона.
- •79 Основные этапы нейросетевого анализа.
- •80. Топологии искусственных нейронных сетей (инс). Многослойные сети. Классификация многослойных инс.
- •81 Обучение инс, парадигмы обучения. Правила Обучения.
- •83 Обучение инс. Обучение с учителем. Алгоритм обратного распространения ошибки
- •84 Обучение инс. Обучение без учителя. Алгоритм обучения Кохонена.
- •85 Обучение инс. Смешанное обучения. Сети встречного распространения
- •87 Каскадная схема проектирования ис
- •88 Бизнес-реинжиниринг в проектировании ис
- •89 Системное проектирование ис
- •90 Основные этапы проектирования ис
- •91 Построение диаграмм потоков данных (dfd) при проектировании ис
- •92 Модели субд при проектировании ис
- •93 Case- технологии в проектировании ис. Классификация case- средств.
- •94. Проектирование структуры бд, нормализация отношений.
- •96. Описание интегрированной модели сложной системы средствами языка uml. Концептуальные модели. Диаграмма вариантов использования.
- •101.Архитектура экономических информационных систем.
- •102.Жизненный цикл экономических информационных систем.
- •103.Этапы реинжиниринга бизнес-процессов в экономических системах.
- •104.Основные классы автоматизированных систем управления бизнес-процессами (mrPl, mrpii, erp).
- •105.Реинжиниринг бизнес-процессов на основе корпоративной ис.
- •106.Этапы проектирования кис.
- •107. Информационная поддержка этапов жизненного цикла кис (cals-технологии).
- •108. Средства концептуального проектирования кис (case-средства).
- •109.Технологии построения кис (клиент-серверные технологии).
- •110.Практическое использование интегрированных кис.
- •111 Приближенные числа и действия над ними. Классификация погрешностей.
- •121. Множества и способы их задания. Операции над множествами. Основные тождества алгебры множеств.
- •122. Бинарные отношения и их свойства. Специальные бинарные отношения.
- •123. Нечеткие множества и операции над ними.
- •125. Понятие графа. Способы задания графа. Основные операции над графами. Основные типы графов.
- •125 Достижимость и связность в графе. Определение компонент связности в неорграфах и сильных компонент в орграфах.
- •128 Эйлеровы и гамильтоновы циклы в графе. Алгоритм Флери построения эйлеровых циклов в графе. .Алгоритм Робертеса и Флореса по строения гамильтоновых циклов в графе.
- •129 Определение кратчайших путей и маршрутов в графе с использованием алгоритма Дейкстры.
- •133 Постановка задач линейной оптимизации. Прикладные линейные модели.
- •2 Задачи транспортного типа.
- •134 Методы решения задач линейной оптимизации.
- •135 Постановка задач дискретной оптимизации. Прикладные дискретные модели.
- •136. Методы решения задач дискретной оптимизации.
- •137. Постановка задач нелинейного программирования. Задачи выпуклого программирования. Функция Лагранжа, принципы ее построения. Метод множителей Лагранжа для решения задач на условный экстремум.
- •139. Постановка задач безусловной оптимизации. Классификация задач безусловной оптимизации и методов их решения. Методы нулевого порядка.
- •140. Постановка задач безусловной оптимизации. Классификация задач безусловной оптимизации и методов их решения. Градиентные методы оптимизации.
- •141. Постановка задачи безусловной оптимизации. Классификация задач безусловной оптимизации и методов их решения. Методы безусловной оптимизации Ньютоновского типа.
- •142. Методы решения задач условной оптимизации. Метод штрафных функций. Внутренние и внешние штрафные функции.
- •2) Учет функциональных ограничений. Для учета функциональных ограничений обычно используется метод штрафных функций.
- •145.Принципы построения программных комплексов принятия оптимальных решений. Основные требования к системам оптимизации. Классификация систем.
- •146.0Бъекты защиты информации. Классификация угроз безопасности; каналы утечки, воздействия. Цели и задачи защиты данных и ивс
- •148 Принципы организации систем обеспечения безопасности данных. Основные подсистемы, входящие в состав системы обеспечения безопасности данных.
- •147 Модель потенциального нарушителя. Классификация компьютерных преступлений. Способы мошенничества в информационных системах.
- •149.Стандарты информационной безопасности. «Критерии оценки безопасности компьютерных систем». Руководящие документы Гостехкомиссии России. «Единые критерии безопасности информационных технологий».
- •Основные элементы политики безопасности:
- •150 Классификация средств защиты данных. Физические средства защиты информации.
- •151 Криптографические методы и средства защиты данных, основные понятия, классификация
- •152 Классификация методов шифрования. Методы замены, перестановки, аналитических преобразований, гаммирования.
- •155. Защита компьютерных систем от вредоносных программ. Классификация вредоносных программ. Методы защиты.
- •156.Защита программных средств от несанкционированного использования и копи-
- •157.Методы и средства защиты информации от несанкционированного доступа. Аутентификация пользователей на основе паролей и модели рукопожатия. Аутентификация пользователей при удаленном доступе.
- •158.Защита информации от несанкционированного доступа в компьютерных сетях.
- •159.Реализация дискреционной и мандатной политики безопасности в ос семейства Windows.
- •160.Основные компоненты банка данных, классификация банков данных и требования к ним.
- •161.Концепция централизованного управления данными, функция администратора данных.
- •162. Архитектура систем баз данных, технология «клиент сервер».
- •163 Классические модели данных: иерархические сетевые, реляционные.
- •164.Реляционные объекты данных, целостность реляционных данных.
- •165Реляционная алгебра и реляционное исчичление
- •166 Язык реляционных бд sql. Структура запросов на языке sql.
- •170 Классификация моделей и их типы.
- •171 Требования, предъявляемые к математическим моделям, уровни моделирования
- •177 Оценка свойств математической модели технической системы
- •178 Распределение вероятностей
- •185. Основные технико-эксплуатационные характеристики эвм.
- •186. Классификация эвм по поколениям и по назначению, по функциональным возможностям и размерам.
- •188. Процессоры. Структура центрального процессора. Характеристики процессора.
- •189. Иерархическая структура памяти. Методы управления памятью.
- •190 Общие принципы организации системы прерывания программ. Характеристики системы прерывания.
- •191 Архитектура эвм, Однопроцессорные эвм, многопроцессорные эвм.
- •Mimd компьютеры
- •Многопроцессорные вычислительные системы
- •Многопроцессорные вычислительные системы с общей шиной.
- •Многопроцессорные вычислительные системы с многовходовыми модулями оп.
- •192 Организация кэш-памяти
- •193 Принципы организации подсистем ввода/вывода. Каналы ввода/вывода.
- •Принципы организации устройств ввода-вывода
- •194 Структура и форматы команд эвм
84 Обучение инс. Обучение без учителя. Алгоритм обучения Кохонена.
Процесс функционирование ИНС, т.е сущность действий которые она способна выполнить, зависит от величин синоптических связей, поэтому разработчик выбрав структуру ИНС должен найти оптимальное значение весовых коэффициентов. Этот этап называется – обучение ИНС.
Схема процесса обучения следующая: Из БД выбирается пример, применяется ИНС и анализируется ответ, если ошибка мала, то ИНС считается обученной, Если ошибка велика- то происходит настройка весовых коэффициентов.
Обычно ИНС настраивают веса связи по имеющейся обучающей выборки, причем функционирование ИНС улучшается по мере итерационной настройки весовых коэффициентов. Существует 3 парадигмы обучения: Обучение с учителем. Смешанное обучение,
Обучение без учителя - не требует знания правильного ответа на каждый пример выборки. Раскрывается внутренняя структура данных , что позволяет распределить примеры по категориям.
Алгоритм обучения Кохонена:
Задаются случайные, нормализованные по длине векторы Wi
Начало цикла обучения. Ввод очередного вектора входов Х.
Определение нейрона победителя (т.е. нейрона с максимальным выходом), корректировка его весов и задание единичного выхода: Wr=Wr+
(Wr-X) yr=1
𝛈- коэффициент скорости обучения.
Нормализация найденного вектора – деление каждой компоненты вектора на длину вектора (квадратный корень из суммы квадратов компонента вектора).
Wr
=Wr/
Это превращает входной вектор весов в единичный вектор с тем же направлением, т.е вектор единичной длины в n-мерном пространстве.
Задание значений для остальных нейронов wi=wi; yi=0, i=r.
Проверка выполнения правила остановки. В качестве такого правила можно выбрать стабилизацию векторов весов на определенных значениях. Если оно не выполнено, то продолжение цикла обучения переходом к шагу 2 , в противном случае переход к шагу 7.
Окончание процедуры обучения
Выражение для коррекции вектора весовых коэффициентов можно представить в след. виде:
Wr:=Wr+
(X-Wr)=(1-
)*Wr+
Т.е. новое значение данного вектора является взвешенной суммой старого значения и предъявленного вектора входов.
Итоговым результатом для подбора коррекций в условиях рассматриваемого примера являются векторы весов, показывающие на центры кластеров (центры группирования входных образов).
Алгоритм обучения Кохонена обеспечивает решение задач автоматической классификации, то есть отнесение предъявленного вектора входов к одному из классов. Число нейронов ИНС для успешного решения указанной задачи должно быть не меньше чем число кластеров, и поскольку число кластеров заранее неизвестно, количество нейронов задается с определенным запасом.
Лишние нейроны, у которых в процессе обучения веса не изменяются по завершению данного процесса могут быть удалены.
85 Обучение инс. Смешанное обучения. Сети встречного распространения
Процесс функционирование ИНС, т.е сущность действий которые она способна выполнить, зависит от величин синоптических связей, поэтому разработчик выбрав структуру ИНС должен найти оптимальное значение весовых коэффициентов. Этот этап называется – обучение ИНС.
Схема процесса обучения следующая: Из БД выбирается пример, применяется ИНС и анализируется ответ, если ошибка мала, то ИНС считается обученной, Если ошибка велика- то происходит настройка весовых коэффициентов.
Обычно ИНС настраивают веса связи по имеющейся обучающей выборки, причем функционирование ИНС улучшается по мере итерационной настройки весовых коэффициентов.
Существует 3 парадигмы обучения: Обучение с учителем. Смешанное обучение, Обучение без учителя
ИНС встречного распространения.
Объединение различный нейронных структур в единой архитектуре, приводят часто к свойствам, которых нет у них по отдельности. ИНС встречного распространения состоит из входного слоя нейронов, слоя Кохонена и слоя Гросберга.
По своим характеристикам данная сеть существенно превосходит ИНС прямого распространения. Время обучения задачам кластеризации и распознавания примерно в 1000 р меньше, чем время обучения в сетей с обратным распространением ошибки. Также сеть встречного распространения имеет хорошие способности к обобщению, позволяющие получать правильный выход при неполном или зашумленном входном векторе. Это используется для решения задач восстановления образов и усиления сигналов. В процессе обучения СВР входные векторы ассоциируются с соответствующими выходными векторами. СВР имеют слой Кохонена и Гросберга.
Каждый элемент входного сигнала подается на все нейроны слоя Кохонена. Каждый нейрон слоя Кохонена соединен со всеми нейронами слоя Гросберга. Отличие сети встречного распространения от других сетей состоит в операциях , выполняемых нейронами Кохонина и Гросберга.
В режиме функционирования сети предъявляется входной сигнал Х и формируется выходной сигнал Y. В режиме обучения на вход сети подается входной сигнал и веса корректировки, т.о. чтобы сеть выдавала требуемый результат.
Функционирование сети:
Слой Кохонена- функционирует по правилу “Победитель забирает все”. Для данного входного вектора только один НЕЙРОН КОХОНЕНА выдает логическую единицу, остальные выдают логический 0. Выход каждого нейрона КОХОНЕНА является взвешенной суммой элементов входных сигналов: Sj=w1jx1 + w2jx2 + ... + WmjXm. Sj- выход нейрона Кохонена, Х –вектор входного сигнала.
Нейрон Кохонена с максимальным значением Sj- является победителем, его выход равен1, у остальных выход равен 0.
Слой Гросберга- выход слоя Гросберга является взвешанной суммой выходов слоя Кохонена.
Если слой Кохонена функционирует так, что только один его выход равен 1, то каждый нейрон слоя Гросберга выдает величину веса, который связывает этот нейрон с единственный нейроном слоя Кохонена, чей выход отличен от 0.
Рассматривая ИНС требует предварительной обработки входных векторов путем их нормализации.
Обучение сети:
Слой Кохонена классифицирует входные векторы в группу схожих. Это решается с помощью настройки весовых коэффициентов, такой что близкие входные векторы активируют один и тот же нейрон данного слоя.
Слой Кохонена обучается без учителей. В результате обучения слой приобретает способность разделять несхожие входные векторы. На вход сети подается входной вектор и вычисляется его скалярное произведение с вектором весов. Скалярное произведение является мерой сходства между входным вектором и вектором весов. Уравнение, описывающие процесс обучения имеет вид: Wнов:=Wс+ (X-Wс)
Wнов-новое значение веса; Wс- предыдущее значение веса, КПД- коэффициент скорости обучения. Коэффициент скорости обучения в начале принимается равным 0,7, затем постепенно уменьшается. Это позволяет делать большие начальные шаги для быстрого грубого обучения и и меньшие шаги при подходе к окончательной величине.
Обучение слоя Гросберга – обучение с учителем. Алгоритм использует заданные , желаемые выходы, каждый вес корректируется лишь в том случае, если он соединен с нейроном Кохонена, имеющий ненулевой выход.
Область применения СВР: распознавание образов; Восстановление образов; Сжатие данных
Недостатки: Нет возможности строить точные отображения
Преимущества : Быстрота обучения, структурная простота.