Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Реферат Щинов.docx
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
45.12 Кб
Скачать

21

Вступ

Теоретичною основою інформатики є група фундаментальних наук таких як:

  • теорія інформації;

  • теорія алгоритмів;

  • математична логіка;

  • теорія формальних мов та граматик;

  • комбінаторний аналіз.

Крім них інформатика включає такі розділи, як архітектура ЕОМ, операційні системи, теорія баз даних, технологія програмування та багато інших. Важливим у визначенні інформатики як науки є те, що з одного боку, вона займається вивченням пристроїв і принципів дії засобів обчислювальної техніки, а з іншого - систематизацією прийомів і методів роботи з програмами, які керують цією технікою.

Інформаційна технологія - це сукупність конкретних технічних і програмних засобів, за допомогою яких виконуються різноманітні операції з обробки інформації в усіх сферах нашого життя і діяльності. Іноді інформаційну технологію називають комп'ютерною технологією або прикладної інформатикою.

Інформація аналогова і цифрова. Термін «інформація» походить від латинського informatio, - роз'яснення, виклад, обізнаність.

Інформацію можна класифікувати різними способами, і різні науки це роблять по-різному. Наприклад, у філософії розрізняють інформацію об'єктивну і суб'єктивну. Об'єктивна інформація відображає явища природи і людського суспільства. Суб'єктивна інформація створюється людьми і відображає їх погляд на об'єктивні явища.

В інформатиці окремо розглядається аналогова інформація і цифрова. Це важливо, оскільки людина завдяки своїм органам почуттів, звик мати справу з аналоговою інформацією, а обчислювальна техніка, навпаки, в основному, працює з цифровою інформацією.

Представлення інформації в еом

1.1 Безперервна і дискретна інформація

Людина сприймає інформацію за допомогою органів почуттів. Світло, звук, тепло - це енергетичні сигнали, а смак і запах - це результат впливу хімічних сполук, в основі якого теж енергетична природа. Людина відчуває енергетичні впливу безперервно і може ніколи не зустрітися з однією і тією ж їх комбінацією двічі. Немає двох однакових зелених листків на одному дереві і двох абсолютно однакових звуків - це інформація аналогова. Якщо ж різним кольорам дати номери, а різним звукам - ноти, то аналогову інформацію можна перетворити у цифрову.

Щоб повідомлення було передано від джерела до одержувача, необхідна деяка матеріальна субстанція - носій інформації. Повідомлення, що передається за допомогою носія, назвемо сигналом. У загальному випадку сигнал - це змінюється в часі фізичний процес. Такий процес може містити різні характеристики (наприклад, при передачі електричних сигналів можуть змінюватися напруга і сила струму). Та з характеристик, яка використовується для подання повідомлень, називається параметром сигналу.

У разі коли параметр сигналу приймає послідовне в часі кінцеве число значень (при цьому всі вони можуть бути пронумеровані), сигнал називається дискретним, а повідомлення, що передається за допомогою таких сигналів-дискретним повідомленням. Інформація, передана джерелом, в цьому випадку також називається дискретною. Якщо ж джерело виробляє безперервне повідомлення (відповідно параметр сигналу - безперервна функція від часу), відповідна інформація називається неперервною. Приклад дискретного повідомлення - процес читання книги, інформація в якій представлена ​​текстом, тобто дискретної послідовністю окремих значків (букв). Прикладом безперервного повідомлення служить людська мова, передана модульованої звуковою хвилею; параметром сигналу в цьому випадку є тиск, що створюється цією хвилею в точці знаходження приймача - людського вуха.

Безперервне повідомлення може бути представлено безперервною функцією, заданої на деякому відрізку [а,б] Безперервне повідомлення можна перетворити в дискретне (така процедура називається дискретизацією). Для цього з нескінченної кількості значень цієї функції (параметра сигналу) вибирається їх певне число, яке приблизно може характеризувати інші значення. Один із способів такого вибору полягає в наступному. Область визначення функції розбивається точками x 1, x 2, ... х n, на відрізки рівної довжини і на кожному з цих відрізків значення функції приймається постійним і рівним, наприклад, середнього значення на цьому відрізку; отримана на цьому етапі функція називається в математиці ступінчастою. Наступний крок - проектування значень "сходинок" на вісь значень функції (вісь ординат). Отримана таким чином послідовність значень функції у 1, у 2, ... у n. є дискретним поданням неперервної функції, точність якого можна необмежено піднімати шляхом зменшення довжин відрізків розбиття області значень аргументу.

Вісь значень функції можна розбити на відрізки з заданим кроком і відобразити кожний з виділених відрізків з області визначення функції у відповідний відрізок з безлічі значень. У результаті отримаємо кінцеве безліч чисел, що визначаються, наприклад, по середині або однієї з меж таких відрізків.

Таким чином, будь-яке повідомлення може бути представлено як дискретне, інакше кажучи послідовністю знаків деякого алфавіту.

Можливість дискретизації безперервного сигналу з будь-якою бажаною точністю (для зростання точності достатньо зменшити крок) принципово важлива з точки зору інформатики. Комп'ютер - цифрова машина, тобто внутрішнє представлення інформації в ньому дискретно. Дискретизація вхідної інформації (якщо вона неперервна) дозволяє зробити її придатною для комп'ютерної обробки. Існують і інші обчислювальні машини - аналогові ЕОМ. Вони використовуються зазвичай для вирішення завдань спеціального характеру й широкій публіці практично не відомі. Ці ЕОМ в принципі не потребують дискретизації вхідної інформації, так як її внутрішнє уявлення в них безперервно. У цьому випадку все навпаки - якщо зовнішня інформація дискретна, то її "перед вживанням" необхідно перетворити на безперервну.

Одиниці кількості інформації: імовірнісний і об'ємний підходи

Визначити поняття "кількість інформації" досить складно. У вирішенні цієї проблеми існують два основні підходи. Історично вони виникли майже одночасно. В кінці 40-х років XX століття один з основоположників кібернетики американський математик Клод Шеннон розвинув імовірнісний підхід до вимірювання кількості інформації, а роботи зі створення ЕОМ призвели до "об'ємному" підходу.

Імовірнісний підхід

Розглянемо як приклад досвід, пов'язаний з киданням правильної гральної. Кістки, що має N граней (найбільш поширеним є випадок шестигранною кістки: N = 6). Результати даного досвіду можуть бути наступні: випадання межі з одним з наступних знаків: 1,2, ... N.

Введемо в розгляд чисельну величина, що визначає невизначеність-ентропію (позначимо її Н). Величини N і Н пов'язані між собою деякою функціональною залежністю:

H = f (N), (1.1)

а сама функція f є зростаючою, неотрицательной і певної (у розглянутому нами прикладі) для N = 1, 2, ... 6.

Розглянемо процедуру кидання кістки більш докладно:

1) готуємося кинути кістку; результат досвіду невідомий, тобто є деяка невизначеність; позначимо її H 1;

2) кістка кинута; інформація про результат даного досвіду отримана; позначимо кількість цієї інформації через I;

3) позначимо невизначеність даного досвіду після його здійснення через H 2. За кількість інформації, яке отримано в ході здійснення досвіду, приймемо різниця невизначеностей "до" і "після" досвіду:

I = H 1 - H 2 (1.2)

Очевидно, що у випадку, коли отримано конкретний результат, имевшаяся невизначеність знята (Н 2 = 0), і, таким чином, кількість отриманої інформації співпадає з початковою ентропією. Інакше кажучи, невизначеність, укладена в досвіді, збігається з інформацією про результат цього досвіду. Зауважимо, що значення Н 2 могло бути і не рівним нулю, наприклад, у випадку, коли в ході досвіду наступної випала грань зі значенням, більшим "З".

Наступним важливим моментом є визначення виду функції f у формулі (1.1). Якщо варіювати число граней N і число кидання кістки (позначимо цю величину через М), загальне число фіналів (векторів довжини М, що складаються із знаків 1,2 ,.... N) буде дорівнює N в ступені М:

X = N M. (1.3)

Так, у випадку двох кидання кістки з шістьма гранями маємо: Х = 6 2 = 36. Фактично кожен результат Х є деяка пара (X 1, X 2), де X 1 і X 2 - відповідно результати першого і другого кидання (загальне число таких пар - X).

Ситуацію з киданням М раз кістки можна розглядати як якусь складну систему, що складається з незалежних один від одного підсистем - "одноразових кидання кістки". Ентропія такої системи в М разів більше, ніж ентропія однієї системи (так званий "принцип адитивності ентропії"):

f (6 M) = M ∙ f (6)

Цю формулу можна поширити і на випадок будь-якого N:

F (NM) = M ∙ f (N) (1.4)

Прологаріфміруем ліву і праву частини формули (1.3):

ln X = M ∙ ln N, М = ln X / 1n M.

Підставляємо отримане для M значення у формулу (1.4):

Позначивши через До позитивну константу, отримаємо: f (X) = К ∙ lnХ, або, з урахуванням (1.1), H = K ∙ ln N. Звичайно приймають К = 1 / ln 2. Таким чином

H = log 2 N. (1.5)

Це - формула Хартлі.

Важливим при введення будь-якої величини є питання про те, що приймати за одиницю її виміру. Очевидно, Н буде дорівнює одиниці при N = 2. Інакше кажучи, в якості одиниці приймається кількість інформації, пов'язане з проведенням досвіду, що складається в отриманні одного з двох рівноймовірно результатів (прикладом такого досвіду може служити кидання монети при якому можливі два результати: "орел "," решка "). Така одиниця кількості інформації називається "біт".

Всі N фіналів розглянутого вище досвіду є рівноімовірними і тому можна вважати, що на "частку" кожного результату припадає одна N-а частина загальної невизначеності досвіду: (log 2 N) 1 N. При цьому ймовірність i-го результату Р i дорівнює, очевидно, 1 / N.

Таким чином,

(1.6)

Та ж формула (1.6) приймається за міру ентропії в разі, коли можливості різноманітних результатів досвіду нерівно вірогідні (тобто Р i можуть бути різні). Формула (1.6) називається формулою Шеннона.

В якості прикладу визначимо кількість інформації, пов'язане з появою кожного символу в повідомленнях, записаних російською мовою. Будемо вважати, що російський алфавіт складається з 33 літер і знака "пробіл" для поділу слів. За формулою (1.5)

Н = log лютого 1934 ≈ 5 біт.

Однак, за тими словами російської мови (так само як і в словах інших мов) різні літери зустрічаються неоднаково часто. Нижче наведена табл. 1 ймовірностей частоти вживання різних знаків російського алфавіту, отримана на основі аналізу дуже великих за обсягом текстів.

У двійковій системі числення знаки 0 і 1 будемо називати бітами (від англійського виразу Binary digiTs - двійкові цифри). Зазначимо, що творці комп'ютерів віддають перевагу саме двійковій системі числення тому, що в технічному пристрої найбільш просто реалізувати два протилежних фізичних стану: певний фізичний елемент, що має два різних стани: намагніченість у двох протилежних напрямках; прилад, що пропускає чи ні електричний струм; конденсатор, заряджений або незаряджений і т.п. У комп'ютері біт є найменшій можливій одиницею інформації. Обсяг інформації, записаної двійковими знаками в пам'яті комп'ютера або на зовнішньому носії інформації підраховується просто за кількістю необхідних для такого запису двійкових символів. При цьому, зокрема, неможливо неціле число бітів (на відміну від імовірнісного підходу).

Для зручності використання введені і більші, ніж біт, одиниці кількості інформації. Так, двійкове слово з восьми знаків містить один, байт інформації, 1024 байти утворюють кілобайт (Kб), 1024 кілобайт - мегабайт (Мбайт), а 1024 мегабайта - гігабайт (Гбайт).

Між імовірнісним і об'ємним кількістю інформації співвідношення неоднозначне. Далеко не кожен текст, записаний двійковими символами, допускає вимірювання об'єму інформації в кібернетичному сенсі, але свідомо допускає його в об'ємному. Далі, якщо деяке повідомлення допускає вимірність кількості інформації в обох сенсах, то вони не обов'язково збігаються, при цьому кібернетичне кількість інформації не може бути більше об'ємного.

Надалі практично завжди кількість інформації розуміється в об'ємному сенсі.

4) Інформація: більш широкий погляд

5) Властивості інформації

Властивості інформації:

• запам'ятовуваність;

• передання;

• перетворюваної;

• відтворюваність;

• стираемость.

Властивість запоминаемости - одне з найважливіших. Запам'ятовує інформацію будемо називати макроскопічної (маючи на увазі просторові масштаби пам'ятною осередки і час запам'ятовування). Саме з макроскопічної інформацією ми маємо справу в реальній практиці.

Передання інформації за допомогою каналів зв'язку (у тому числі з перешкодами) добре досліджена в рамках теорії інформації К. Шеннона. У даному випадку мається на увазі дещо інший аспект - здатність інформації до копіювання, тобто до того, що вона може бути "запам'ятати" інший макроскопічної системою і при цьому залишиться тотожною самій собі. Очевидно, що кількість інформації не повинно зростати при копіюванні.

Відтворюваність інформації тісно пов'язана з її передаванням і не є її незалежною базовим властивістю. Якщо передання означає, що не слід вважати істотними просторові відносини між частинами системи, між якими передається інформація, то відтворюваність характеризує невичерпність і невичерпного інформації, тобто що при копіюванні інформація залишається тотожною самій собі.

Фундаментальне властивість інформації - перетворюваної. Воно означає, що інформація може міняти спосіб і форму свого існування. Копируемого є різновид перетворення інформації, при якому її кількість не змінюється. У загальному випадку кількість інформації в процесах перетворення змінюється, але зростати не може. Властивість стираемости інформації також не є незалежним. Воно пов'язане з таким перетворенням інформації (передачею), при якому її кількість зменшується і стає рівним нулю.

Підводячи підсумок сказаному, відзначимо, що робляться (але аж ніяк не завершені) спроби учених, які представляють різні галузі знання, побудувати єдину теорію, яка покликана формалізувати поняття інформації та інформаційного процесу, описати перетворення інформації в процесах самої різної природи. Рух інформації є сутність процесів управління, які суть прояв іманентної активності матерії, її здатності до саморуху. З моменту виникнення кібернетики управління розглядається стосовно до всіх форм руху матерії, а не тільки до вищих (біологічної і соціальної). Багато проявів руху в неживих - штучних (технічних) і природних (природних) - системах також володіють загальними ознаками управління, хоча їх досліджують в хімії, фізиці, механіці в енергетичній, а не в інформаційній системі уявлень. Інформаційні аспекти в таких системах становлять предмет нової міждисциплінарної науки - синергетики.

Вищою формою інформації, що виявляється в управлінні у соціальних системах, є знання. Це наддісціплінарное поняття, широко використовується в педагогіці і дослідженнях зі штучного інтелекту, також претендує на роль найважливішої філософської категорії. У філософському плані пізнання слід розглядати як один з функціональних аспектів управління. Такий підхід відкриває шлях до системного розуміння генезису процесів пізнання, його засади і перспективи.