Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Otvety_na_infu.docx
Скачиваний:
3
Добавлен:
01.03.2025
Размер:
52.61 Кб
Скачать

1.Предмет и задачи информатики.

Информа́тика — наука о способах получения, накопления, хранения, преобразования, передачи и использования информации. Она включает дисциплины, относящиеся к обработке информации в вычислительных машинах и вычислительных сетях: как абстрактные, вроде анализа алгоритмов, так и довольно конкретные, например, разработка языков программирования.

Задачи информатики :

1)Исследование инф. процессов любой природы 2)Разработка информационной техники и создание новых тех. Переработки инф. на базе полученных исследований инф. Процессов

2.Информация: определение, виды и свойства.

Информация - сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся  о них степень неопределённости , неполноты знаний

Информация обладает двумя свойствами:1) отображает события, процессы, явления;2) может преобразовываться, обрабатываться, храниться, многократно использоваться.

Свойства: 1) полнота;2) полезность;3) избыточность;4) достоверность;5) точность;6) ценность;7) возраст;8) старение

3.Информационные процессы.

Информационный процесс — процесс получения, создания, сбора, обработки, накопления, хранения, поиска, распространения и использования информации

4. Информационные технологии - это класс областей деятельности, относящихся к технологиям управления и обработкой огромного потока информации с применением вычислительной техники.

5. Информационная система (ИС) — это система, в которой присутствуют информационные процессы (хранение, передача, преобразование информации)

6. Информация. Меры информации – бывают 1)Синтаксическая 2)Семантическая 3)Прагматическая

7. Синтаксическая мера информации - это мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. На синтаксическом уровне учитываются тип носителя и способ представления информации, скорость передачи и обработки, размеры кодов представления информации

8. Структурный подход Хартли к измерению количества информации

Степень неопределённости определяется числом возможных состояний системы.

Вероятность ответа в этих примерах обуславливает и равную неопределённость,  снимаемую ответом в каждом из пяти вопросов и, следовательно, каждый ответ несёт одинаковую информацию.

9.Основы теории вероятностей-

Непосредственный подсчет Р(А)=м/n

Где Р(А) - вероятность события А

m - число случаев благоприятных событию А

n - общее число случаев

Эта формула применима для несовместных равновозможных событий, образующих полную группу. Такие события называют случаем.

10. Статистический подход Шеннона к измерению количества информации.

Сравним два объекта: а) коробку, в которой находится 999 черных и один белый шарик; б) коробку, в которой находится 500 черных и 500 белых.

Любая информация приводит к снятию некоторой априорной (доопытной) неопределенности.В первом случае источник сообщения для получателя почти полностью определен, он и не осуществляя опыта, знал, извлечет черный шар, поэтому сообщение о его извлечении несет количество информации, близкое к 0. Вероятность таких сообщений близка к 1. Вероятность таких сообщений близка к 1, поэтому среднее количество информации, поэтому среднее количество информации на одно сообщение будет мало. Во втором случае, когда предсказание об исходе опыта невозможно, сообщение о событие несет значительно больше информации для получателя.

Суть подхода Шеннона- Изложеные соображения приводят к необходимости учитывать при определении количества информации не только количество разнообразных сообщений от источника, но и вероятность получения тех или иных сообщений.

11.Понятие энтропии.

Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.

12.Энтропия и информация. Формула Шеннона.

Энтропия в информатике — степень неполноты, неопределённости знаний.

Понятие энтропии впервые было введено Клаузиусом в термодинамике в 1865 году для определения меры необратимого рассеивания энергии, меры отклонения реального процесса от идеального. Определённая как сумма приведённых теплот, она является функцией состояния и остаётся постоянной при обратимых процессах, тогда как в необратимых — её изменение всегда положительно.

Формула Шеннона:

13.Единицы измерения информации.

Байт, килобайт, мегабайт, гигабайт, терабайт, петабайт, эксабайт, зеттабайт, йоттабайт.

14.Семантическая мера информации. Тезаурус.

Семантическая мера информации. Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение. Для этого используют понятие тезаурус пользователя.

Тезаурус – это совокупность сведений, которыми располагает пользователь или система.

В зависимости от соотношений между смысловым содержанием информации S и тезаурусом пользователя Sp изменяется количество семантической информации Ic, воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус.

15.Прагматическая мера информации. Формула Харкевича.

Прагматическая мера информации – определяет ценность или полезность информации для достижения цели пользователя. Формула Харкевича: I=log2(p1)-log2(p0)=log2(p1/p0), (p0- вероятность достижения цели до получения информации, p1- после получения информации; I=0 - бесполезная информация, I<0 - дезинформация, I>0 - полезная информация)

16.Представление информации в памяти компьютера.

Компьютер - это электронная машина, которая работает с сигналами.Компьютер может работать только с такой информацией, которую можнопревратить в сигналы. У компьютера очень хорошо получается работать с числами. Он может делать с ними все, что угодно. Все числа в компьютере закодированы "двоичным кодом", то есть представлены с помощью всего двух символов 1 и 0, которые легко представляются сигналами.

Вся информация с которой работает компьютер кодируется числами. Независимо от того, графическая, текстовая или звуковая эта информация, что бы ее мог обрабатывать центральный процессор она должна тем или иным образом быть представлена числами.

17.Классификация компьютеров: основания (признаки) классификации, классификация компьютеров по различным основаниям.

Компьютеры могут быть классифицированы по разным признакам, например по габаритам, по областям применения, по быстродействию, по функциям, по этапам создания и еще по многим другим параметрам.

Мы рассмотрим классификацию по обобщенному параметру, где в разной степени учтено несколько характерных признаков:

  1. назначение и роль компьютеров в системе обработки информации;

  2. условия взаимодействия человека и компьютера;

  3. габариты компьютера;

  4. ресурсные возможности компьютера.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]