- •1. Основные задачи оис
- •6. Современные информационные системы
- •7. Тенденции развития информационных систем
- •8. Агрегативное описание систем
- •9.Теоретико-множественный подход к описанию систем
- •10. Описание системы в виде черного ящика
- •11. Качественные методы описания системы
- •12.Количественные методы описания системы
- •13.Основные понятия и определения информационной системы.
- •14. Рассмотрение информационной системы как открытой системы
- •15.Этапы обращения информации
- •16.Виды информационных систем.
- •17. Понятия сообщений, сигнала.
- •18. Измерение информации
- •19. Основные меры информации
- •Синтаксическая мера информации.
- •Семантическая мера информации
- •Прагматическая мера информации
- •20.Энтропия.
- •21. Энтропия объединения двух статистически независимых источников информации
- •22. Условная энтропия
- •23. Энтропия объединения двух статистически связанных ансамблей
- •24. Дифференциальная энтропия и ее свойства
- •25.Эпсилон-энтропия случайной величины
- •1.7. Эпсилон-энтропия случайной величины
- •26.Количество информации
- •27. Скорость передачи информации и пропускная способность каналов связи
- •28.Потери в канале связи
- •29.Среднее количество принятой информации
- •30. Техническая скорость передачи
- •31. Скорость передачи информации
- •32. Пропускная способность дискретных каналов связи
- •33. Математические модели сигналов
- •35. Временная форма представления детерминированных сигналов
- •36.Частотная форма представления детерминированных сигналов в этом случае в качестве базисных выбраны функции:
- •(Такие функции целесообразно выбирать при анализе инвариантных во времени линейных систем). Для периодического сигнала u(t) коэффициенты сk для базисных функций называются спектром и определяются
- •37. Спектры периодического сигнала
- •38. Спектры непериодических сигналов
- •39. Распределение энергии в спектре
- •40. Соотношение между длительностью импульсов и шириной их спектров.
- •41. Каналы и системы связи
- •42. Основные определения
- •43. Непрерывная модуляция (амплитудная, частотная, фазовая)
- •44.Импульсная модуляция (амплитудно-импульсная, широтно импульсная, частотно-импульсная модуляция)
- •45. Цифровые методы модуляции (импульсно-кодовая, дифференциальная, дельта–модуляция).
- •46. Спектральный анализ модулированных колебаний.
- •47.Кодирование информации
- •48. Общие понятия теории кодирования
- •49.Аналоговые преобразователи
- •50. Эффективное кодирование (Методика Шеннона и Фэно, методика Хафмена)
- •51. Методы сжатия информации
- •52. Помехоустойчивое кодирование
- •53.Линейные групповые коды
- •Задача 12
- •54. Технические средства кодирования и декодирования для групповых кодов. Циклическое кодирование
- •55. Квантование информации
- •56. Классификация методов дискретизации
- •57, Дикретизация по времени
- •58. Выбор точности отсчетов по теореме Котельникова
- •59. Квантование по уровню
- •60. Проблемы развития современных ис Проблемы современных информационных систем
- •Какие преимущества дают облачные системы?
15.Этапы обращения информации
Этап восприятия информации.( сбор информации с помощью счетчиков, датчиков и т.д.)
Этап подготовки информации.
3) Этап передачи и хранения информации.
(Для передачи на расстояние используются электрические, электромагнитные и оптические каналы. Для хранения информации используются полупроводниковые, магнитные, оптические носители.)
4) Этап обработки информации.
5) Этап отображения информации.
16.Виды информационных систем.
Имеет место следующая классификация систем:
- централизованные и децентрализованные;
- знаковые и предметные;
- стохастические и детерминированные;
- открытые и закрытые;
- простые и сложные;
Знаковые и предметные системы определяются способом их описания. Если предметом рассмотрения являются уравнения, числа или графики, то такую систему можно отнести к знаковой. Если рассматриваются конкретные фирмы, людей, устройства и т.п., система предметная.
Стохастические и детерминированные системы также определяются тем, как они описаны. Если множество характеристик Х имеет вероятностный характер, то такую систему называют стохастической. Если значения характеристик Х строго определены и зависимости между ними могут быть выражены, например, с помощью аналитических функций, система детерминированная.
Открытые и закрытые системы определяются возможностью введения в них новых элементов. Если можно ввести в систему новый элемент, не изменяя цели ее работы, система открытая. Если в системе количество элементов строго определено и введение новых элементов влечет за собой изменение режима ее работы или даже цели, система будем называть закрытая.
простые и сложные системы определяется количеством входящих в нее элементов (так малые системы - 102 элементов, супербольшие - 10200 элементов). Является система сложной или простой определяется связями между элементами.
17. Понятия сообщений, сигнала.
Информация – это сведения, являющиеся объектом передачи, распределения, преобразования, хранения или непосредственного использования.
Сообщение -форма выражения (представления) информации, удобная для передачи на расстояние. Примерами сообщений служат тексты телеграмм, речь, музыка, телевизионное изображение, данные на выходе компьютера, команды в системе автоматического управления объектами и т.п. Сообщения передают с помощью сигналов, которые являются носителями информации. Основным видом сигналов являются электрические сигналы. В последнее время всё большее распространение получают оптические сигналы, н/р, в волоконно-оптических линиях передачи информации. Сигнал - физический процесс, отображающий передаваемое сообщение. Отображение сообщения обеспечивается изменением к-л физической величины, характеризующей процесс. Сигнал передаёт (развёртывает) сообщение во времени, то есть всегда является функцией времени. Сигналы формируются путём изменения тех или иных параметров физического носителя в соответствии с передаваемым сообщением.
18. Измерение информации
Важнейшим вопросом теории информации является установление меры количества и качества информации. Существует 3 основных теории об измерении информации:
1)Структурная теория – рассматривает дискретное строение массивов информации и измерения простым подсчетом информационных элементов.
2) Статистическая теория – оперирует понятием энтропия, как мерой неопределенности.
3) Семантическая теория учитывает целесообразность, ценность, полезность или существенность информации.
