Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Пакет лекций.doc
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
4.92 Mб
Скачать

2. Подання інформації в комп`ютері

Комп`ютер може обробляти інформацію, що подана в числовій формі. Вся інформація (звуки, зображення, показання приладів тощо) для опрацювання на комп`ютері повинна бути перетворена в числову форму. Наприклад, звук у числовій формі можна подати як значення замірів інтенсивності звукових сигналів, що здійснювалися через невеликі проміжки часу. За допомогою спеціальних  комп`ютерних програм можна виконати  перетворення  отриманої інформації , наприклад "накласти" один на інший звуки від різних джерел. Після цього результат можна перетворити у звукову форму.

Як правило, усі числа у середині комп`ютера подаються за допомогою нулів і одиниць, а не десяти цифр, як це більш звично для людини. Іншими словами, комп`ютери працюють у двійковій системі  числення, яка з технічного боку значно ефективніше реалізує основні функції комп`ютера. Уведення чисел у комп`ютер і виведення їх для сприйняття людиною здійснюється, зазвичай, у десятковій системі. Перетворення з десяткової системи в двійкову і навпаки виконують спеціальні комп`ютерні програми.

Одиницею інформації в комп`ютері є двійковий розряд, який може приймати значення 1 або 0 і називається біт. Вісім послідовних біт утворюють байт. В одному байті можна закодувати значення одного з 256 символів (256 = 28).

Байт - це група взаємозв’язаних бітів. 1 байт = 8 бітів. Одним байтом кодується один символ текстової інформації.

1 Кілобайт (Кб) = 210 байт = 1024 байт.

1 Мегабайт (Мб) = 1024 Кб.

1 Гігабайт (Гб) =1024 Мб.

1 Терабайт (Тб) = 1024 Гб.

1 Петабайт (Птб) = 1024 Тб

3. Вивчення обсягів економічної інформації

Кількісна оцінка інформації і даних. Увага до проблеми передачі і кількісної оцінки інформації була привернута фундаментальними роботами Н. Вінера, К. Шеннона (США), що поклали початок теорії інформації. Значний внесок до теорії інформації внесли вітчизняні учені О.М. Колмогоров, О.О. Харкевич, В.А. Котельников. Тільки приймаючи за основу новизну відомостей, можна дати кількісну оцінку інформації, оскільки новизна відомостей є наслідком невизначеності відомостей про об’єкт, процес, явище, а невизначеність піддається вимірюванню.

Класичний підхід до визначення кількості інформації обґрунтував Клод Шеннон. За Шенноном, кількість інформації, що еквівалентна на одному символу, визначається за формулою

(1.1)

де І – питома інформативність джерела (кількість інформації на один символ); pі – ймовірність появи сигналу і-того типу; k – кількість типів сигналів. Знак " – " у цій формулі не означає, що кількість інформації є від’ємною величиною. Справа в тому, що значення – від’ємна величина, помноживши яку на (-1) маємо додатне значення І.

Якщо повідомлення указує на один з n рівноймовірних варіантів, то воно несе кількість інформації, рівну log2n. Ту ж формулу можна словесно виразити інакше: кількість інформації рівна ступеню, до якого необхідно підняти 2, щоб отримати число рівноправних варіантів вибору, тобто I2 = 16, де I = 4 біти.