
- •Вопрос 1
- •Вопрос 2
- •Вопрос 3
- •Вопрос 4
- •Вопрос 5
- •Вопрос 6
- •Вопрос 7
- •Вопрос 8
- •Вопрос 9
- •Вопрос 10
- •Вопрос 11
- •Вопрос 12
- •Вопрос 13
- •Вопрос 14
- •Вопрос 15
- •8.2. Создание документа
- •8.3. Ввод документа
- •8.6. Форматирование документа
- •Вопрос 16
- •Вопрос 17
- •Вопрос 18
- •Вопрос 19
- •Вопрос 20
- •Вопрос 21
- •Вопрос 22
- •4.2.2. Настраиваемый (выборочный) показ слайдов
- •4.2.3. Настройка параметров демонстрации
- •Вопрос 23
- •Вопрос 24
- •Вопрос 25
- •6.1.Понятие реляционной базы данных
- •6.2. Первичные ключи и индексирование
- •6.3. Связи в базе данных
- •Вопрос 26
- •7.2. Запросы с применением вычислений
- •7.3. Назначение и особенности проектирования запросов разных типов
- •Вопрос 27
- •Вопрос 28
- •Вопрос 29
- •Вопрос 30
- •Вопрос 31
- •Вопрос 32
- •Вопрос 33
- •Вопрос 34
- •Вопрос 35
- •Вопрос 36
Вопрос 3
Понятие информации является основополагающим понятием информатики — науки, изучающей все аспекты получения, хранения, преобразования, передачи и использования информации. Любая деятельность человека представляет собой процесс сбора и переработки информации, принятия на ее основе решений и их выполнения. С появлением современных средств вычислительной техники информация стала выступать в качестве одного из важнейших ресурсов научно-технического прогресса.
Информация содержится в человеческой речи, текстах книг, журналов и газет, сообщениях радио и телевидения, показаниях приборов и т. д. Человек воспринимает информацию с помощью органов чувств, хранит и перерабатывает ее при помощи мозга и центральной нервной системы. Передаваемая информация обычно касается каких-то предметов или нас самих и связана с событиями, происходящими в окружающем нас мире.
Термин «информация» происходит от латинского informatio — разъяснение, изложение, осведомленность.
Информация – это сведения, которые должны снять в большей или меньшей
степени существующую до их получения неопределенность у получателя, пополнить систему его понимания объекта полезными сведениями.
В рамках науки информация является первичным и неопределяемым понятием. Оно предполагает наличие материального носителя информации, источника информации, передатчика информации, приемника и канала связи между источником и приемником. Понятие информации используется во всех сферах: науке, технике, культуре, социологии и повседневной жизни. Конкретное толкование элементов, связанных с понятием информации, зависит от метода конкретной науки, цели исследования или просто от наших представлений.
С понятием информации связаны такие понятия, как сигнал, сообщение и данные.
Сигнал представляет собой любой процесс, несущий информацию. Процесс может быть любой природы (например, механическое перемещение., электрический ток)
Сообщение — это информация, представленная в определенной форме и предназначенная для передачи (текст, письмо, аудио, видеозапись, телефонный разговор)
Данные — это информация, представленная в формализованном виде и предназначенная для обработки ее техническими средствами, например, ЭВМ.
Различают две формы представления информации — непрерывную и дискретную. Поскольку носителями информации являются сигналы, то в качестве последних могут использоваться физические процессы различной природы. Например, процесс протекания электрического тока в цепи, процесс механического перемещения тела, процесс распространения света и т. д. Информация представляется (отражается) значением одного или нескольких параметров физического процесса (сигнала), либо комбинацией нескольких параметров.
Сигнал называется непрерывным, если его параметр в заданных пределах может принимать любые промежуточные значения. Сигнал называется дискретным, если его параметр в заданных пределах может принимать отдельные фиксированные значения.
Сигнал принимает два значения: 0/1 (двоичная система счисления) или да/нет.
Количеством информации называют числовую характеристику сигнала, характеризующую степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала. Эту мера неопределенности в теории информации называют энтропией. Если в результате получения сообщения достигается полная ясность в каком-то вопросе, говорят, что была получена полная или исчерпывающая информация, и необходимости в получении дополнительной информации нет. И, наоборот, если после получения сообщения неопределенность осталась прежней, значит, информации получено не было (нулевая информация).
Минимальная единица количества информации называется битом. Группа из 8 бит – байт.
1 килобайт (1 Кбайт) = 210 байт = 1024 байт,
1 мегабайт (1 Мбайт) = 210 Кбайт = 1024 Кбайт = 220 байт,
1 гигабайт (1 Гбайт) = 210 Мбайт=1024 Мбайт = 230 байт,
1 терабайт (1 Тбайт) = 210 Гбайт = 1024 Мбайт = 240 байт,
1 петабайт (1 Пбайт) = 210 Тбайт = 1024 Тбайт = 250 байт.
1 экзабайт = 210 Пбайт =260 байт.
Системы счислений - это способ наименования и изображения чисел с помощью символов имеющих определенные количественные значения.
Системы счисления делятся на:
1. Позиционные. В позиционной системе счисления количественное значения каждой цифры зависит от её расположения в числе. Примером позиционной системы счисления является арабская 10значная система, где основание 10, для изображения чисел используются цифры от 0 до 10.
Непозиционные. В непозиционной системе счисления цифры не меняют количественное значения при изменении их расположения в числе. Примером непозиционной системы счисления является римская, в которой для каждого числа используется специфическое сочетание символов.