Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Lektsia_1_-_Osnovnye_ponyatia_informatiki.doc
Скачиваний:
11
Добавлен:
06.11.2018
Размер:
113.15 Кб
Скачать

Структура современной информатики

Составные части современной информатики – это теоретическая информатика, вычислительная техника, программирование, информационные системы и искусственный интеллект.

Теоретическая информатика - часть информатики, включающая ряд математических разделов. Она опирается на математическую логику и включает такие разделы, как теория алгоритмов и автоматов, теорию информации и теорию кодирования, теорию формальных языков и грамматик, исследование операций и другие. Этот раздел информатики использует математические методы для общего изучения вопросов обработки информации.

Вычислительная техника – раздел, в котором разрабатываются общие принципы построения вычислительных систем. О разработке новых архитектур вычислительных систем, определяющий состав, назначение, функциональные возможности и принципы взаимодействия устройств. Примеры - неймановская архитектура компьютеров первых поколений, шинная архитектура ЭВМ старших поколений, архитектура параллельной (многопроцессорной) обработки информации.

Программирование – деятельность, связанная с разработкой систем программного обеспечения. Можно отметить среди системного – разработка новых языков программирования и компиляторов к ним, разработка интерфейсных систем(Windows).Среди прикладного обеспечения – системы обработки текстов, электронные табличные процессоры, графические редакторы.

Информационные системы – раздел информатики, связанный с решением по анализу потоков информации в различных сложных системах, их оптимизации, структурировании, принципах хранения и поиска информации. Информационно-справочные системы, информационно-поисковые системы, глобальные системы хранения и поиска информации Internet, WWW.

Искусственный интеллект – область информатики, в которой решаются сложнейшие проблемы, находящиеся на пересечении с медициной, психологией, физиологией, лингвистикой и другими науками.

Основные направления разработок в этой области – это моделирование рассуждений, компьютерная лингвистика, машинный перевод, создание экспертных систем, распознавание образов.

Место информатики в системе наук

Рассмотрим место науки информатики в системе наук – технических, естественных, гуманитарных. Академик Б.Н.Наумов определял информатику «как естественную науку, изучающую общие свойства информации, процессы, методы и средства ее обработки (сбор, хранение, преобразование, перемещение, выдача)».

К фундаментальным принято относить те науки, основные понятия которых носят общенаучный характер, используются во многих других науках и видах деятельности.

Естественные науки – физика, химия, биология и другие – имеют дело с объектами сущностями мира, существующими независимо от нашего сознания. Отнесение к ним информатики отражает единство законов обработки информации в системах самой разной природы – искусственных, биологических, общественных.

Рисунок 1.2 – место информатики в системе наук

Тема 2: Информация, ее виды и свойства

План:

Информация, ее виды и свойства.

Различные уровни представлений об информации.

Носители данных. Операции с данными.

Понятие информация является одним из фундаментальных в современной науке вообще и базовым для изучаемой нами информатики. Информация – это совокупность каких – либо сведений, данных, передаваемых устно (в форме речи), письменно (в виде текста, таблиц, рисунков, чертежей, схем, условных обозначений и т.д.) либо другим способом (например, с помощью звукового или светового сигналов, электрических импульсов, запахов, перепадов давления или измерения температуры). В простейшем бытовом понимании с термином "информация" обычно ассоциируются некоторые сведения, данные, знания. Информация передается в виде сообщений.

Сообщения - это совокупность знаков или первичных сигналов, отображающих ту или иную информацию. Примерами сообщений являются - телепередача, музыкальные произведения, текст письма, результаты работы на ПК.

Передача сообщений на расстояние осуществляется с помощью какого-либо материального носителя (бумаги, фотопленки, магнитной ленты , магнитного диска и т.д.) или физического процесса(звуковых, световых или электромагнитных волн и т.п.). Таким образом, информация передается путем обмена между отправителем и получателем. Физический процесс, несущий передаваемое сообщение, называется сигналом.

Источник

передатчик

КА

КА

приемник

получатель

Канал связи

Линия связи

Сообщения могут быть функциями времени (информация представляется в виде первичных сигналов - музыка, речь, показания датчиков) или не являться функциями времени (информация представляется в виде совокупности знаков).

В современных системах связи чаще всего используются электрические или оптические сигналы. Передача информации осуществляется путем изменения какого-либо параметра сигнала в соответствии с передаваемым сообщением. Например, путем изменения амплитуды, частоты, фазы гармонических колебаний или длительности прямоугольных импульсов. Процесс изменения параметров сигнала на передающей стороне, происходящий в соответствии с содержанием передаваемого сообщения, называется модуляцией. Процесс восстановления сообщения из принятого сигнала называется демодуляцией.

Линией связи называется физическая среда, используемая для транспортировки сигналов от передатчика к приемнику. В качестве примера линии связи можно назвать оптоволоконный и коаксиальный кабели связи, пространство, в котором распространяются радиоволны. Совокупность технических средств, предназначенных для передачи сообщений от отправителя к получателю, называется системой связи. В качестве составных частей в систему связи входят передающее устройство(передатчик), канал связи и приемное устройство(приемник).

Отправителями и получателями информации могут быть субъекты (пользователи, абоненты, корреспонденты) и объекты (датчики, компьютеры, факс-модемы, принтеры, устройства автоматики).

Существуют каналы проводной связи (проводные, кабельные, световодные и др.) и каналы радиосвязи (телевизионные, радио- и сотовые станции). Широкое распространение получили радиорелейные линии (РРЛ). В РРЛ радиосигнал передается от одной станции к другой (ретранслируется). Разновидностью РРЛ являются тропосферные линии, которые используют отражения радиосигнала от неоднородностей тропосферы. Существуют спутниковые сети - радио релейные линии, в которых ретранслятор располагают на искусственном спутнике земли. Применительно к глобальной сети Интернет можно сказать, что она содержит самые разнообразные каналы связи, которые соединяют между собой узлы с коммутационным оборудованием и компьютерами-серверами.

Человеку свойственно субъективное восприятие информации через некоторый набор ее свойств: важность, достоверность, своевременность, доступность и т.д. Использование терминов "больше информации" или "меньше информации" подразумевает некую возможность ее измерения.

Виды информации

Непрерывная и дискретная информация

Чтобы сообщение было передано от источника к получателю, необходима некоторая материальная субстанция - носитель информации. Сообщение, передаваемое с помощью носителя, назвали сигналом. Процесс передачи содержит различные характеристики, которые назвали параметрами сигнала.

Когда параметр сигнала принимает последовательное во времени конечное число значений (они могут быть пронумерованы), сигнал называется дискретным, а сообщение, передаваемое с помощью таких сигналов - дискретным сообщением. Информация, передаваемая источником, в этом случае также называется дискретной. Если же источник вырабатывает непрерывное сообщение (соответственно параметр сигнала - непрерывная функция от времени), соответствующая информация называется непрерывной.

Различают две формы представления информации - непрерывную (аналоговую) и дискретную (цифровую). На рисунке 1. 3 схематично показан процесс преобразования аналогового сигнала в цифровой.

t

время

t

Рисунок 1.3- Процесс преобразования аналогового сигнала в цифровой.

После преобразования непрерывный сигнал представляется последовательностью чисел: 2-3- 4 - 4 – 4 –3 – 2 –2 –3 – 4 – 4. Десятичные числа кодируются в последовательности 1 и 0. Результат представим в таблице1:

Время

Десятичные числа

Двоичные числа

2

0010

3

0011

4

0100

4

0100

4

0100

3

0011

2

0010

2

0010

3

0011

4

0100

4

0100

Таким образом, любое сообщение может быть представлено как дискретное, иначе говоря, последовательностью знаков некоторого алфавита. Возможность дискретизации непрерывного сигнала с любой желаемой точностью принципиально важна с точки зрения информации и ее обработки на ЭВМ, так как внутреннее представление информации в ней дискретно.

Единицы количества информации

Определить понятие "количества информации" довольно сложно. В решении этой проблемы существуют два основных подхода. Американский математик Клод Шеннон развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к "объемному подходу".

Вероятностный подход. Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной кости, имеющей N граней(наиболее распространенным является случай шестигранной кости: N= 6). Результатом данного опыта могут быть следующие: выпадание грани с одним из следующих знаков-1, 2, …, N.

Введем в рассмотрение численную величину, измеряющую неопределенность - энтропию( обозначим ее H). Величины N и H связаны между собой некоторой функциональной зависимостью:

а сама функция f является возрастающей, неотрицательной и определенной для N = 1, 2, …,6.

Рассмотрим процедуру бросания кости более подробно:

1)готовимся бросить кость; исход опыта неизвестен, т.е. имеется некоторая неопределенность; обозначим ее H1;

2)кость брошена; информация об исходе данного опыта получена; обозначим количество этой информации через I;

3)обозначим неопределенность данного опыта после его осуществления через H2.

За количество информации, которое получено в ходе опыта, примем разность неопределенностей «до» и «после» опыта:

I=H1-H2

Очевидно, что когда получен конкретный результат, имеющаяся неопределенность снята(H2=0) и таким образом, количество полученной информации совпадает с первоначальной энтропией.

Следующим важным моментом является определение вида функции f в формуле. Если варьировать число граней N и число бросаний кости ( обозначим ее через M), общее число исходов будет равно N в степени M:

X = NM

Так, в случае бросаний кости с шестью гранями имеем: X = 62 = 36. Фактически каждый исход Х есть некоторая пара (Х1, Х2), где Х1 и Х2 – исходы первого и второго бросаний.

Ситуацию с бросанием М раз кости можно рассматривать как некую сложную систему, состоящую из независимых друг о друга подсистем – «однократных бросаний кости». Энтропия такой системы в М раз больше, чем энтропия одной системы (принцип аддитивности энтропии):

F(6M)= M*f(6)

Данную формулу можно применить и на случай любого N:

F(NM) = M*f(N). (1.4)

Прологарифмируем обе части формулы

Подставляем полученное для М значение в формулу (1.4):

Обозначим через К положительную константу, получим

Обычно принимают К= 1/ln2

Таким образом

Это формула Хартли. Важным является при введении какой-либо величины, что принимать за единицу ее измерения. Очевидно, что Н будет равно единице при N = 2.

Иначе говоря, что в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятностных исходов. Такая единица количества информации называется «бит». Все N исходов нашего опыта являются равновероятностными и поэтому можно считать, что на долю каждого исхода приходится одна N-я часть общей неопределенности опыта:

При этом вероятность I-го исхода равняется 1/N.

Таким образом,

- формула Шеннона

Объемный подход. В двоичной системе счисления знаки 0 и 1 называют битами (от английского слова Binary digiTs –двоичные цифры). В вычислительной технике бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации, подсчитывается просто по количеству требуемых для такой записи двоичных символов.

Для удобства использования введены и более крупные, чем бит, единицы количества информации.

1024байт - Кбайт

1024Кбайт – Мбайт

1024Мбайт – Гбайт

Между вероятностным и объемным количеством информации соотношение неоднозначное.

Контрольные вопросы:

1.Какие существуют определения «информатики»?

2.Как появился термин «информатика»?

3.Перечислите структуру информатики?

4.Дайте определение информации?

5. Кто ввел впервые вероятностный подход к измерению количества информации?

Литература:

1. Могилев А.В. Информатика: Учебное пособие . - 2-е изд.., стер..- М.: Издательский центр"Академия", 2003. -816с.

2. Могилев А.В. Практикум по информатике: Учеб.пособие для студ.высш.учеб.заведений. – М.: Издательский центр «Академия», 2003.-608с.

3. Информатика. Базовый курс./ под ред. С.В. Симоновича.- СПб.: Питер, 2001. -640с.

4. Острейковский В.А. Информатика: Уч. для вузов. М.: Высш.шк., 1999.- 511 с.

5. Алексеев А.П. Информатика 2007. -М.: СОЛОН-Пресс, 2007. - 464 с.: ил.-(серия "Полное руководство пользователя") изд. 3-е

Темы рефератов:

1. История развития информатики.

2. История развития вычислительной техники.

3. Техническое обеспечение информационных систем.

4. Основные понятия кибернетики

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]