
- •Информатика и программирование
- •1) Понятие информации и ее измерение. Количество и качество информации. Единицы измерения информации.
- •2) Сообщения и сигналы. Кодирование и квантование сигналов.
- •3) Позиционные системы счисления. Методы перевода чисел.
- •4) Представление чисел в компьютере.
- •6) Основные стратегии конструирования программных продуктов.
- •7) Основные критерии оценки качества программных продуктов.
- •8) Определение термина «стиль программирования». Требования к стилю написания программ.
- •9) Основные понятия и показатели надежности программного продукта.
- •10) Определение термина «тестирование». Необходимость тестирования программных продуктов. Взаимосвязь тестирования и отладки.
- •11) Основные методы и принципы тестирования.
- •12) Сопровождение программных продуктов. Виды сопровождения.
Информатика и программирование
1) Понятие информации и ее измерение. Количество и качество информации. Единицы измерения информации. 2
2) Сообщения и сигналы. Кодирование и квантование сигналов. 3
3) Позиционные системы счисления. Методы перевода чисел. 5
4) Представление чисел в компьютере. 6
6) Основные стратегии конструирования программных продуктов. 9
7) Основные критерии оценки качества программных продуктов. 11
8) Определение термина «стиль программирования». Требования к стилю написания программ. 11
9) Основные понятия и показатели надежности программного продукта. 12
10) Определение термина «тестирование». Необходимость тестирования программных продуктов. Взаимосвязь тестирования и отладки. 12
11) Основные методы и принципы тестирования. 13
12) Сопровождение программных продуктов. Виды сопровождения. 15
1) Понятие информации и ее измерение. Количество и качество информации. Единицы измерения информации.
Информатика– это наука, изучающая все аспекты получения, хранения, преобразования, передачи и использования информации.
Cточки зрения объектного подхода:
Информация– совокупность сведений о различных процессах, явлениях, объектах, выраженная в сигналах, доступных для восприятия.
Cточки зрения статистического подхода:
Информация– это то, что уменьшает неопределенность некоторого опыта с неоднозначным исходом
Свойства информации:
Адекватность – соответствие действительности
Достоверность – определяет истинность и ложность информации
Актуальность - зависит от динамики изменения характеристик информации и определяется сохранением ценности информации для пользователя в момент ее использования. Очевидно, что касается информации, которая используется при зачислении, она актуальна, так как само обучение уже закончилось, и его результаты изменены быть не могут, а, значит, остаются актуальными
Важность:
Количество пользователей информации должно быть много
Пользователей может быть мало, но для принятия важных решений
Понятность – информация
Измерение информации
Измерить – это значит сравнить с эталоном. Эталона информации нет.
Измерение бывает количественное и качественное.
Качественное измерение – это оценка свойств информации.
Количественное измерение имеет два подхода:
Алфавитный с точки зрения алфавитов
Содержательный с точки зрения статистического подхода
Алфавитный подход
Определяет количество информации, используя количество символов с учетом информационного веса каждого символа.
Основные обозначения:
N- мощность алфавита (количество символов в алфавите)
i– информационный вес (количество информации в одном символе или количество двоичных разрядов необходимых для кодирования одного символа)
Один двоичный разряд, используемый для кодирования, - это 1 битинформации
1 бит – это минимальная единица измерения информации
N = 2i – формула Хартли для равновероятных событий
2 – так как кодирование двоичное
k- количество символов в сообщении
I– количество информации в сообщении
I=k*i
Определить информационный объем сообщения: ИНФОРМАТИКА.
1 способ. Все буквы алфавита использованы при кодировании ИНФОРМАТИКА
N=9, i = 3.17=4 бита, k=11, I=11*4=44 бита
2 способ. Все буквы русского алфавита использованы при кодировании ИНФОРМАТИКА
N=33,i=6,k=11,I=11*6=66 бит
3 способ. Все символы для кодирования произвольного текста ИНФОРМАТИКА
Алфавит:
Русский 33 маленьких+33 больших = 66
Латинский 26 маленьких+26 больших = 52
Математические знаки 10
Цифры 10
Знаки препинания 10
Пробел 1
Специальные символы 25
N=174, i=8=1 байт, k=11, I=11*8=88 бит = 11 байт
ASCII — American Standard Code for Information Interchange — американский стандартный код для обмена информацией. ASCII представляет собой 8-битную кодировку для представления десятичных цифр, латинского и национального алфавитов, знаков препинания и управляющих символов. Нижнюю половину кодовой таблицы (0 — 127) занимают символы US-ASCII, а верхнюю (128 — 255) — разные другие нужные символы. Слово ASCII чаще употребляется в женском роде.
Содержательный (вероятностный) подход
Определяет количество информации через неопределенность знаний с учетом вероятности событий.
Сообщение, уменьшающее неопределенность знаний в 2 раза, несет 1 бит информации – метод двоичного поиска
Сколько бит нужно, чтобы угадать задуманное целое число из диапазона от 1 до 8?
8 вариантов → 3 вопроса → 3 бита
Вероятностный подход делится:
1) Равновероятное событие – формула Хартли
N- количество равновероятных событий
i– количество информации в сообщении о том, что произошло одно изNравновероятных событий
N = 2i
2) Неравновероятное событие – формула Шеннона
Общее
А – количество благоприятных событий
М – общее количество событий
p– вероятность события
p=A/M
Для измерения информации
р - вероятность события
i– количество информации в сообщении о том, что произошло это событие
2i
=1/p
или
Вывод.ЧЕМ МЕНЬШЕ ВЕРОЯТНОСТЬ СОБЫТИЯ, ТЕМ БОЛЬШЕЕ КОЛИЧЕСТВО ИНФОРМАЦИИ СОДЕРЖИТСЯ В СООБЩЕНИИ О НЕМ
Энтропия – мера неопределенности
Для вычисления энтропии используется формула Шеннона
Вывод.Чем больше информации мы получаем, тем больше мы уменьшаем неопределенность
Единицы измерения информации
1 бит- 1 двоичный разряд {0; 1}
1 байт= 8 бит
1 Кбайт= 1024 байт
1 Мбайт= 1024 Кбайт
1 Гбайт= 1024 Мбайт
1 Тбайт= 1024 Гбайт
если это то, то получается что1000байт - это тот же 1Кбайт, только в десятичной системе (10 в 3степени) хз только, правильный ли ответ) хотя по логике похоже на правду)
а 1024байт - это 1 Кбайт, но в двоичной системе)
В качестве единицы информации принят бит (от англ. bit – binary digit – двоичная цифра)
Бит в теории информации – это количество информации, необходимой для различения двух равновероятных сообщений.
Бит в вычислительной технике – наименьшая "порция" памяти, необходимая для хранения одного из двух знаков "0" или "1", используемых для внутримашинного представления данных и команд.
Для хранения информации большего объёма используется байт (восемь бит) или более крупные производные единицы информации (килобайт, мегабайт, гигабайт и пр.), всегда равные степени двойки (бита).