Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Ответы мелко.doc
Скачиваний:
28
Добавлен:
04.08.2019
Размер:
640 Кб
Скачать
  1. Базовые методы обработки экономической информации.

  1. Эмпирические

    • Наблюдение

    • Сравнение – установление общего и различного в системе или нескольких системах

    • Измерение – поиск количественного описания

    • Эксперимент – целенаправленное преобразование системы для установления её черт, особенностей

  2. Эмпирико-теоретические методы

    • Абстрагирование – использование какой-то модели для представления свойств реальной системы

    • Анализ – разъединение системы на подсистемы с целью выявления их взаимосвязи

    • Декомпозиция – разъединение системы на подсистемы с сохранением их взаимосвязей с окружением

    • Синтез – соединение подсистем в систему с целью выявления их взаимосвязей

    • Композиция – соединение подсистем в систему с сохранением их взаимосвязей с окружением

    • Индукция – переход от частного случая к общему

    • Дедукция – переход от общего случая к частному

    • Эвристика – получение знания о системе по знаниям о подсистемах и наблюдением (опытом)

    • Моделирование – получение знание о системе с помощью модели

    • Исторический метод – поиск знаний о системе путем использования её предыстории реальносуществовавшей или мыслимой (возможной)

    • Логический – метод поиска знаний о системе путем воспроизведения связей её подсистем в мышлении или сознании

    • Макетирование – получение информации с помощью представления структурных, функциональных, организационных и технологических подсистем в упрощенном виде, сохраняющем информацию, необходимую для понимания взаимодействия и связей этих подсистем

    • Актуализация

    • Визуализация

  3. Теоретические

    • Идеализация – получение знаний о системе путем мысленного конструирования систем или подсистем несуществующих в действительности

    • Формализация – получение знаний о системе с помощью языков искусственного происхождения

    • Восхождение от абстрактного к конкретному – получение знаний о системе на основе знаний о её абстрактных проявлениях

    • Аксиоматизация – получение знаний о системе с помощью специально сформулированных аксиом и правил вывода этих аксиом

    • Виртуализация – получение знаний о системе путем создания особой среды, в которую помещается изучаемая система или её исследующий оъект

  4. Информационные процессы. Измерение информации. Формулы Хартли и Шеннона.

Процессы, связанные с поиском, хранением, передачей, обработкой и использованием информации называются информационными.

Поиск информации – это процесс извлечения хранимой информации.

Методы поиска информации: непосредственное наблюдение, общение со специалистами по интересующему вас вопросу, чтение соответствующей литературы, просмотр видео- и телепрограмм, прослушивание радиопередач и аудиокассет, работа в библиотеках и архивах, запрос к информационным системам, поиск информации в Интернете и др.

Сбор информации – это деятельности субъекта, в ходе которой он получает информация об интересующем его объекте.

Хранение информации – это процесс поддержания исходной информации в виде, обеспечивающем выдачу данных по запросам конечных пользователей в установленные сроки. Способ хранения зависит от её носителя.

Передача (обмен) информацией – это процесс, в ходе которого передатчик (источник) передает информацию, а получатель (приемник) её принимает. Между источником и приемником информации действует канал передачи информации – канал связи. Канал связи – совокупность технических устройств, обеспечивающих передачу сигнала от источника к получателю.

Обработка информации – это упорядоченный процесс её преобразования в соответствии с алгоритмом решения задачи или с другими формальными правилами.

Защита информации – это комплекс организационных, технических мер по предотвращению угроз информационной безопасности и устранению их последствий.

Измерение информации. В определенных условия можно пренебречь качественными особенностями информации и выразить её количество числом, а также сравнить количество информации, содержащейся в разных группах данных. За единицу количества информации принято количество информации, которое содержится в сообщении, уменьшающем неопределенные ситуации в два раза. (1 бит). Количество информации – количественная мера разнообразия. Минимальное разнообразие обеспечивается наличием двух равновероятных состояний. Говорят, что ячейка памяти обладает минимальной информационной емкостью, если она способна в зависимости от внешних воздействий принимать одно из двух состояний (0 или 1). Информационная емкость одной ячейки памяти, которая в каждый момент времени может находиться в одном из двух различных состояний принято за единицу измерения количества информации – 1 бит. 1бит – это не только единица измерения количества информации, но также единица называемая информационной энтропией.

I – количество информации, H – количество энтропии.

Информационная энтропия – величина, количественно характеризующая неопределенность (мера неопределенности, выраженная в битах). За единицу измерения неопределенности принимается неопределенность, содержащаяся в опыте, имеющем два равновероятных исхода. Самая мелкая возможная единица – 1 бит.

Если N – количество вариантов, которые равновероятны, то используется формула Р. Хартли: , где N – количество рассматриваемых вариантов. В качестве основания 2, так как минимальное количество рассматриваемых вариантов – 2.

В общем случае энтропия H и количество информации I зависят от вероятности реализации каждого из этих вариантов. Probability – вероятность (Р).

Если рассматриваемы опыт может иметь N равновероятных исходов, то вероятность некоторого события равна отношению числа равновероятных исходов благоприятных для наступления данного события к общему числу равновероятных исходов.

В общем случае, при рассмотрении неравновероятных вариантов энтропия H или количество информации рассчитывается по формуле К. Шеннона: