
- •1. Алгоритмы сжатия изображений.
- •2 Аппаратное обеспечение мультимедиа.
- •3Виды и принцип действия cd-rom.
- •4 Виды памяти.
- •5Использование звука . Стандарты звуковых карт
- •6. Организация сетей для передачи мультимедиа-данных.
- •7 Синтезированные звуковые карты с частотной модуляцией.
- •8 Составляющие изображения, технология ускорения графики.
- •9 Способы передачи мультимедиа-данных в сетях.
- •10 Технология видеодисплеев
- •12 Организация виртуальной памяти.
- •13 Стратегии замещения и размещения страниц. Принцип локальности
- •14 Этапы загрузки операционных систем (Unix, Windows nt).
- •14. Этапы загрузки операционных систем (Unix, Windows nt).
- •15 Организация фс fat , основные элементы структуры.
- •16 Организация файловой системы fat32 отличия от fat16, преимущества.
- •17 Особенности организации файловой системы unix. Файловая система. Типы файлов.
- •18. Структура каталогов ос Linux. Файловая система ос Linux ext2fs, ext3fs.
- •Система адресации данных ext2 — это одна из самых важных составляющих фс. Она позволяет находить нужный файл среди множества как пустых, так и занятых блоков на диске.
- •19 Базовая файловая система s5fs.
- •Управление процессами в ос Unix. Типы процессов.
- •21Алгоритмы управления памятью в ос unix, Linux. Замещение страниц.
- •22. Загрузка ос Windows nt. Особенности Windows nt
- •23. Файловая система ntfs. Структура, особенности, преимущества ntfs
- •24. Управление памятью в Windows nt. Стратегии выборки, размещения и замещения страниц.
- •25. Язык Java. Особенности языка. Средства для разработки приложений. (jdk). Пакеты. Простейшая программа, компиляция и запуск.
- •26. Комментарии и встроенная документация. Спецификаторы доступа к классам и полям класса в Java. Public, protected и private
- •27. Интерфейсы Реализация интерфейсов. Ключевое слово static, ключевое слово this.
- •28. Апплеты. Структура и методы апплета. Вызов апплета.
- •29. Исключительные ситуации. Обработка исключительных ситуаций
- •30. Программирование отношений типа «Является», «Имеет», «Использует», «Создает».
- •31. Потоки Создание и запуск потока.
- •32. Синхронизация потоков.
- •33. Система ввода-вывода в Java. Работа с файлами.
- •34. Библиотека Swing. Основные компоненты Реализация пользовательского интерфейса.
- •35. Библиотеки jdbc, подключение к базе данных. (Объект Connection)
- •36. Реализация запроса sql и обработка результатов. (Объекты .Statement и Resultset)
- •37. Сервлеты, структура и организация. Методы жизненного цикла.
- •38. Jsp, структура и организация. Класс Session.
- •39. Основы технологии ejb. Основные цели. Ejb-компонента, ejb-объект, ejb- контейнер.
- •Цели, лежащие в основе технологии ejb
- •40 Entity Bean. Жизненный цикл.
- •41 Модели жизненного цикла
- •43 Диаграммы потоков данных
- •44 Функциональное тестирование
- •Функциональное тестирование включает:
- •45 Методы разработки программ (Метод джексона и метод Вареье орра)
- •46 Модели качества процессов конструирования.
- •47 Структурное программирование
- •48. Модульное программирование
- •49 Способы реализации алгоритмов
- •50 Методы доказательства правильности программ и алгоритмом
- •51 Центральные проекции
- •52 Параллельные проекции
- •53. Двумерные аффинные преобразования.
- •54. Трехмерные аффинные преобразования
- •55 Описание и построение составных поверхностей
- •56 Построение составных поверхностей Эрмита
- •57 Построение составных поверхностей Безье
- •58 Построение составных поверхностей методом в-сплайнов
- •59. Классификация методов моделирования. Методы моделирования твердого тела.
- •60. Модели объемных тел . Алгебрологическая граничная модель.
- •61 Модели объемных тел. Модель конструктивной геометрии трехмерного объекта.
- •62. Модели объемных тел. Кусочно-аналитические граничные модели.
- •63 Классификация интеллектуальных ис
- •Структура экспертных систем (эс).
- •Этапы разработки эс.
- •Классификация эс.
- •Инструментальные средства разработки эс.
- •68 Системы, основанные на продукционных моделях представления знаний.
- •69 Семантические сети
- •70 Логический вывод на основе субъективных вероятностей
- •5.2. Распространение вероятностей в эс
- •72 Метод экспертного оценивания.
- •73. Классификация методов моделирования. Моделирование скульптурных поверхностей.
- •77. Основные классы задач, решаемые искусственными нейронными сетями (инс).
- •78. Математическая модель искусственного нейрона.
- •79 Основные этапы нейросетевого анализа.
- •80. Топологии искусственных нейронных сетей (инс). Многослойные сети. Классификация многослойных инс.
- •81 Обучение инс, парадигмы обучения. Правила Обучения.
- •83 Обучение инс. Обучение с учителем. Алгоритм обратного распространения ошибки
- •84 Обучение инс. Обучение без учителя. Алгоритм обучения Кохонена.
- •85 Обучение инс. Смешанное обучения. Сети встречного распространения
- •87 Каскадная схема проектирования ис
- •88 Бизнес-реинжиниринг в проектировании ис
- •89 Системное проектирование ис
- •90 Основные этапы проектирования ис
- •91 Построение диаграмм потоков данных (dfd) при проектировании ис
- •92 Модели субд при проектировании ис
- •93 Case- технологии в проектировании ис. Классификация case- средств.
- •94. Проектирование структуры бд, нормализация отношений.
- •96. Описание интегрированной модели сложной системы средствами языка uml. Концептуальные модели. Диаграмма вариантов использования.
- •101.Архитектура экономических информационных систем.
- •102.Жизненный цикл экономических информационных систем.
- •103.Этапы реинжиниринга бизнес-процессов в экономических системах.
- •104.Основные классы автоматизированных систем управления бизнес-процессами (mrPl, mrpii, erp).
- •105.Реинжиниринг бизнес-процессов на основе корпоративной ис.
- •106.Этапы проектирования кис.
- •107. Информационная поддержка этапов жизненного цикла кис (cals-технологии).
- •108. Средства концептуального проектирования кис (case-средства).
- •109.Технологии построения кис (клиент-серверные технологии).
- •110.Практическое использование интегрированных кис.
- •111 Приближенные числа и действия над ними. Классификация погрешностей.
- •121. Множества и способы их задания. Операции над множествами. Основные тождества алгебры множеств.
- •122. Бинарные отношения и их свойства. Специальные бинарные отношения.
- •123. Нечеткие множества и операции над ними.
- •125. Понятие графа. Способы задания графа. Основные операции над графами. Основные типы графов.
- •125 Достижимость и связность в графе. Определение компонент связности в неорграфах и сильных компонент в орграфах.
- •128 Эйлеровы и гамильтоновы циклы в графе. Алгоритм Флери построения эйлеровых циклов в графе. .Алгоритм Робертеса и Флореса по строения гамильтоновых циклов в графе.
- •129 Определение кратчайших путей и маршрутов в графе с использованием алгоритма Дейкстры.
- •133 Постановка задач линейной оптимизации. Прикладные линейные модели.
- •2 Задачи транспортного типа.
- •134 Методы решения задач линейной оптимизации.
- •135 Постановка задач дискретной оптимизации. Прикладные дискретные модели.
- •136. Методы решения задач дискретной оптимизации.
- •137. Постановка задач нелинейного программирования. Задачи выпуклого программирования. Функция Лагранжа, принципы ее построения. Метод множителей Лагранжа для решения задач на условный экстремум.
- •139. Постановка задач безусловной оптимизации. Классификация задач безусловной оптимизации и методов их решения. Методы нулевого порядка.
- •140. Постановка задач безусловной оптимизации. Классификация задач безусловной оптимизации и методов их решения. Градиентные методы оптимизации.
- •141. Постановка задачи безусловной оптимизации. Классификация задач безусловной оптимизации и методов их решения. Методы безусловной оптимизации Ньютоновского типа.
- •142. Методы решения задач условной оптимизации. Метод штрафных функций. Внутренние и внешние штрафные функции.
- •2) Учет функциональных ограничений. Для учета функциональных ограничений обычно используется метод штрафных функций.
- •145.Принципы построения программных комплексов принятия оптимальных решений. Основные требования к системам оптимизации. Классификация систем.
- •146.0Бъекты защиты информации. Классификация угроз безопасности; каналы утечки, воздействия. Цели и задачи защиты данных и ивс
- •148 Принципы организации систем обеспечения безопасности данных. Основные подсистемы, входящие в состав системы обеспечения безопасности данных.
- •147 Модель потенциального нарушителя. Классификация компьютерных преступлений. Способы мошенничества в информационных системах.
- •149.Стандарты информационной безопасности. «Критерии оценки безопасности компьютерных систем». Руководящие документы Гостехкомиссии России. «Единые критерии безопасности информационных технологий».
- •Основные элементы политики безопасности:
- •150 Классификация средств защиты данных. Физические средства защиты информации.
- •151 Криптографические методы и средства защиты данных, основные понятия, классификация
- •152 Классификация методов шифрования. Методы замены, перестановки, аналитических преобразований, гаммирования.
- •155. Защита компьютерных систем от вредоносных программ. Классификация вредоносных программ. Методы защиты.
- •156.Защита программных средств от несанкционированного использования и копи-
- •157.Методы и средства защиты информации от несанкционированного доступа. Аутентификация пользователей на основе паролей и модели рукопожатия. Аутентификация пользователей при удаленном доступе.
- •158.Защита информации от несанкционированного доступа в компьютерных сетях.
- •159.Реализация дискреционной и мандатной политики безопасности в ос семейства Windows.
- •160.Основные компоненты банка данных, классификация банков данных и требования к ним.
- •161.Концепция централизованного управления данными, функция администратора данных.
- •162. Архитектура систем баз данных, технология «клиент сервер».
- •163 Классические модели данных: иерархические сетевые, реляционные.
- •164.Реляционные объекты данных, целостность реляционных данных.
- •165Реляционная алгебра и реляционное исчичление
- •166 Язык реляционных бд sql. Структура запросов на языке sql.
- •170 Классификация моделей и их типы.
- •171 Требования, предъявляемые к математическим моделям, уровни моделирования
- •177 Оценка свойств математической модели технической системы
- •178 Распределение вероятностей
- •185. Основные технико-эксплуатационные характеристики эвм.
- •186. Классификация эвм по поколениям и по назначению, по функциональным возможностям и размерам.
- •188. Процессоры. Структура центрального процессора. Характеристики процессора.
- •189. Иерархическая структура памяти. Методы управления памятью.
- •190 Общие принципы организации системы прерывания программ. Характеристики системы прерывания.
- •191 Архитектура эвм, Однопроцессорные эвм, многопроцессорные эвм.
- •Mimd компьютеры
- •Многопроцессорные вычислительные системы
- •Многопроцессорные вычислительные системы с общей шиной.
- •Многопроцессорные вычислительные системы с многовходовыми модулями оп.
- •192 Организация кэш-памяти
- •193 Принципы организации подсистем ввода/вывода. Каналы ввода/вывода.
- •Принципы организации устройств ввода-вывода
- •194 Структура и форматы команд эвм
80. Топологии искусственных нейронных сетей (инс). Многослойные сети. Классификация многослойных инс.
С точки зрения топологий среди ИНС выделяется З вида сетей:
1) Полно-связные сети. 2) Многослойные сети.3) Слабо-связные сети (нейронные сети с локальными связями).
Полно-связные сети представляют собой ИНС каждый нейрон, которой передает свой выходной сигнал остальным нейронам, в том числе самому себе. Входные сигналы подаются всем нейронам.
В многослойных сетях нейроны объединяются в слой. Слой содержит совокупность нейронов с едиными входными сигналами. Число нейронов в каждом слое может быть любым и ни как не связанно с количеством нейронов в других слоях. В общем случаи, сеть состоит из q-слоев прономерованных слева на право. Внешние входные сигналы подаются на входы нейронов первого слоя (иногда входной слой номеруется как «0»). Выходами сета являются выходные сигналы последнего слоя. Выходы «0» слоя служат в качестве распределения точек суммирования и в ряде случаев преобразование сигналов здесь не производится. Кроме входных и выходных слоев в многослойной ИНС присутствуют один или несколько промежуточных (скрытых) слоев. Связи от выходов нейронов слоя «q» к входам слоя «q+1» называются последовательным! i
Среди многослойных сетей выделяются следующие типы
A) Монотонные - каждый слой кроме последнего разбивается на 2 блока возбуждающий и тормозящий. Связи между блоками так же разделяются на возбуждающие и тормозящие. Кроме того необходима монотонная зависимость выходного сигнала от параметров входных
Б) Сети без обратных связей - каждый выходной сигнал «q» слоя подается на вход всех нейронов слоя «q+L». Обычно L=l, классическим вариантом являются сети прямого распространения. Далее обрабатывается первый скрытый слой и т.д. Последний слой выдает выходные сигналы для интерпретатора или пользователя.
B) Сети с обратными связями - это сети у которых информация с последующих слоев подается на предыдущие.
Слабосвязные сети – сети с локальными связями. Каждый нейрон связан с 4 мя или 8 топологическими соседями.
81 Обучение инс, парадигмы обучения. Правила Обучения.
Процесс функционирование ИНС, т.е сущность действий которые она способна выполнить, зависит от величин синоптических связей, поэтому разработчик выбрав структуру ИНС должен найти оптимальное значение весовых коэффициентов. Этот этап называется – обучение ИНС.
Схема процесса обучения следующая: Из БД выбирается пример, применяется ИНС и анализируется ответ, если ошибка мала, то ИНС считается обученной, Если ошибка велика- то происходит настройка весовых коэффициентов.
Обычно ИНС настраивают веса связи по имеющейся обучающей выборки, причем функционирование ИНС улучшается по мере итерационной настройки весовых коэффициентов.
Существует 3 парадигмы обучения:
Обучение с учителем – ИНС располагает правильными ответами, на каждый входной пример. Веса настраиваются таким образом, чтобы сеть производила ответы как можно более близкие к известным правильным. Целью является минимизация ошибки.
Обучение без учителя - не требует знания правильного ответа на каждый пример выборки. Раскрывается внутренняя структура данных , что позволяет распределить примеры по категориям.
При смешанном обучении – часть весов определяется как обучение с учителем, а остальная часть с помощью самообучения.
Все алгоритмы обучения делятся на 2 класса:
Детерминированные алгоритмы- обучение ИНС представляет собой жесткую последовательность действий
Стохастический алгоритм- обучения происходят на основе действий, подчиняющихся случайному процессу.
Вся информация, которая сеть имеет о задаче содержится в наборе примеров, поэтому качество обучения зависит от количества примеров выборки и от того, насколько полно эти примеры описывают задачу.
Существует 4 правила обучения:
Коррекция ошибок
Соревновательное обучение – выходные нейроны соревнуются между собой за активацию. Обучение позволяет кластеризовать входные данные, т.е. похожие примеры группируются сетью в соответствии с корреляцией и представляются одним элементом.
Правило Больцмана- представляет собой стохастическое правило обучения- целью которого является настройка весовых коэффициентов при которой состояние нейронов удовлетворяло желаемому распределению вероятности.
Правило Хебба - соответствует обучение без учителя, в которой весовые коэффициенты настраиваются если активизированы оба нейрона (источник и приемник).
82 Обучение ИНС. Оптимизационный характер обучения ИНС.
Процесс функционирование ИНС, т.е сущность действий которые она способна выполнить, зависит от величин синоптических связей, поэтому разработчик выбрав структуру ИНС должен найти оптимальное значение весовых коэффициентов.
Этот этап называется – обучение ИНС.
Схема процесса обучения следующая: Из БД выбирается пример, применяется ИНС и анализируется ответ, если ошибка мала, то ИНС считается обученной, Если ошибка велика- то происходит настройка весовых коэффициентов.
Обычно ИНС настраивают веса связи по имеющейся обучающей выборки, причем функционирование ИНС улучшается по мере итерационной настройки весовых коэффициентов.
В процессе функционирования ИНС формирует выходной сигнал Y в соответствии с входным сигналом X, реализуя некоторую функцию Y=G(X).
Если архитектура сети задана, то вид функции G определяется значением синоптических весов. Пусть решение некоторой задачи является функция y=f(t), заданная парами данных вход-выход (x,y) для которых Yn= F(Xn).
Обучение состоит в поиске функции G близкой к F в смысле некоторой функции ошибки Е.
Если выбрано множество обучающих примеров и и способ вычисления функции ошибки Е, то обучение ИНС превращается в задачу многомерной оптимизации с большой размерностью.
Для решения задачи оптимизации могут быть использованы классические алгоритмы оптимизации: 1) Алгоритм локальной оптимизации первого порядка (градиентный алгоритм, метод сопряженных градиентов и т.д.)
2)Алгоритм локальной оптимизации второго порядка: (Метод Ньютона, квазиньютоновский метод)
3) Стохастические методы оптимизации ( метод Монте-Карло, поиск в случайном направлении и т.д.)
4) Алгоритмы глобальной оптимизации (методы перебора. Генетические алгоритмы).