Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
itu (2).docx
Скачиваний:
0
Добавлен:
25.12.2019
Размер:
385.6 Кб
Скачать

15. Понятие «внутренней» и «внешней» информационной модели.

Информационная модель – это модель отображения предметной области в виде информационных объектов и связей между ними. При этом под информационным объектом понимается абстрактный объект, информацию о свойствах которого предполагается хранить в БД.

В качестве информационной модели могут служить наглядные изображения (фото, кино, видео), знаки (текст, знаковое табло), графические модели (график, чертеж, блок - схема) и комбинированные изображения (мнемосхема, карта).

Внешняя модель – это модель, соответствующая пользовательской модели с конкретным отображением информационных потребностей пользователя (какие данные и как должны быть представлены, каковы процедуры обработки данных и т. д.).

Внутренняя модель – это модель, которая отражает используемые запоминающие устройства, способы расположения элементов данных в памяти и физической реализации логических связей между ними.

16. Обобщенная схема реализации информационного процесса.

Информационный процесс – совокупность последовательных действий (операций), производимых над информацией, для получения какого-либо результата (достижения цели): поиск (сбор)-хранение-передача-обработка-использование информации.

Поиск – это извлечение хранимой информации (наблюдение, общение, чтение, просмотр, прослушивание).

Хранение – это способ распространения информации в пространстве и времени.

Передача – перенос информации в виде сигнала в пространстве посредством физических сред любой природы.

Обработка – преобразование информации из одного вида в другой, осуществляемое по строгим формальным правилам.

17. Основные этапы развития научных представлений об информации.

Считается, что одним из первых понятие информации в научный оборот было введено Р.Фишером в 1921 г. применительно к решению задач статистике. Р.Фишером была предложена мера (среднего) количества информации, относительно неизвестного параметра, содержащейся в одном наблюдении. В круг интересов Р.Фишера входили и вопросы генетической теории эволюции, также непосредственно связанные с информацией.

Примерно в этот же период началось широкое распространение радиоэлектронных методов передачи сообщений на большие расстояния. Перед специалистами остро встала проблема качества и надежности связи.

Передаваемый сигнал это форма, в которую преобразованы сообщения. Очень важно как можно плотнее «наполнить» сигнал полезными данными, а при получении «извлечь» их с минимальными потерями, которые неизбежны при прохождении сигнала в физической среде. Для решения этой задачи требовалась разработка методов количественной оценки передаваемых сведений.

В результате многочисленных исследований в середине 30-40-х годов ХХ в. такие методы были созданы.

Основы теории информации, как самостоятельного научного направления были изложены в статье «Математическая теория связи» (1948 г.) выдающегося американского ученого и инженера К.Шеннона (1916-2001). Методы данной теории позволили определять информационные характеристики конкретных видов сообщений (письменной и устной речи, фотографических и телевизионных изображений и пр.).

Цели, которые ставил перед собой Шеннон, были связаны с чисто техническими вопросами радиоэлектронной связи. Он решал проблемы повышения эффективности и надежности передачи данных. Однако в дальнейшем, благодаря своему общему характеру, работы Шеннона оказали большое влияние на все исследования, относящиеся к передаче и хранению какой бы то ни было информации в природе и технике. В дальнейшем идеи, как ее сегодня называют, классической теории информации стали использоваться в метрологии, нейрофизиологии, генетике, лингвистике и т.д.

Работа Шеннона базировалась на трудах многих ученых, работающих в этой и смежных областях. Важную роль в становлении и развитии теории информации сыграли работы российских математиков и инженеров В.А.Котельникова (1908), А.Н.Колмогорова (1903-1987) , А.Я.Хинчина (1894-1959), А.М Яглома, А.А.Харкевича (1904-1965) и др..

Котельников работал над совершенствованием методов радиоприема, разработкой методов борьбы с помехами. Теорема Котельникова, на которой построен принцип действия электронных машин, телевидения, систем связи, была сформулирована еще в 1933 г., до возникновения современной теории информации. Согласно этой теореме максимальное число различных элементарных сигналов, которые можно передать по линии связи за единицу времени, является некоторой технической характеристикой линии, которую нельзя изменить, не внося изменений в саму линию. Данный вывод играет основную роль во всех применениях теории информации к вопросу о передаче непрерывных сигналов. Клод Шеннон, ссылался на его работу.

А.Н.Колмогоров обобщил и применил понятие энтропии в ряде областей математики, создав несколько новых научных математических направлений. В последние годы своей творческой деятельности он работал над созданием алгоритмических основ теории информации и теории вероятностей.

Исторически первые шаги к введению понятия энтропии как меры степени неопределенности сообщений были сделаны в 1928 г. американским инженером-связистом Р.Хартли, предложившим за отправную точку для информационной оценки события принимать его неопределенность и количественно характеризовать степень неопределенности события с n различными исходами числом log n.

До этого понятие энтропия широко использовалось в физике. Первым в 1865 г. его ввел немецкий ученый Р.Клаузиус (1822-88) для характеристики состояния термодинамических систем. Несколько позже оно стало использоваться в статистической физике как мера вероятности пребывания системы в данном состоянии. Австрийский физик Людвиг Больцман (1844-1906) в 1872 г. сформулировал принцип, устанавливающий соотношение между энтропией и ее термодинамической вероятностью через логарифмическую функцию и некую постоянную, в последствии названную в его честь .

Идея вероятностного подхода к оценке количества информации основывалась на следующих моментах. Существует множество примеров различных событий, характеризующихся одинаковой неопределенностью. Например, встреча на одном из 4-х углов перекрестка, выбор одной из 4-х карт различной масти и т.д. Во всех этих случаях имеет место неопределенность, характеризующаяся возможностью выбора одного из четырех вариантов.

Всю совокупность символов, которыми закодированы варианты возможных событий и сообщений о них, называют алфавитом сообщений. Зная алфавит сообщений, можно реализовать предложенный Р.Хартли структурный (или комбинаторный) подход к определению количества информации в сообщении.

Суть его состоит в том, чтобы оценивать неопределенность получения от источника того или иного сообщения исходя из общего множества возможных сообщений, величина которого в свою очередь обусловлена количеством информационных элементов, комбинаций этих элементов и связей между ними.

Существует очень тесная связь между теорий информации и кибернетикой.

В 1948 г., когда была опубликована знаменитая статья Шеннона, вышла в свет книга американского ученого Норберта Винера (1894-1964) «Кибернетика, или связь в животном и машине», в которой он обобщил общие принципы построения и работы любых управляющих систем, показал ключевую роль информации в управлении .

Основная идея книги – подобие процессов управления и связи в технических, биологических и социальных (организационных) системах. Эти процессы по своей природе прежде всего являются процессами передачи, хранения и переработки информации, т.е. различных сигналов, сообщений, сведений. Книга Винера стала итогом работы организованного им совместно с физиологом Артуром Розенблютом в годы Второй мировой войны семинара, в котором принимали участие математики, нейрофизиологи, специалисты по теории связи и вычислительной технике.

В ходе продолжительных обсуждений был сделан вывод, что вся существующая к тому времени терминология не может способствовать в надлежащей степени развитию этой области, и по примеру других ученых пришлось придумать искусственное неогреческое выражение для устранения пробела. Было решено назвать теорию управления и связи кибернетикой.

Процессы управления действительно неразрывно связаны с процессами сбора, передачи и обработки информации, изучение которых является предметом теории информации. Но из этого не следует делать вывод, что эта теория является разделом кибернетики. Теория информации занимается изучением процессов преобразования информации более широко, часто вне связи с процессами управления.

Кибернетика – это наука об общих принципах управления в различных системах: технических, биологических, социальных и др. Кибернетика исследует любые управленческие процессы, причем независимо от того, используется ли для их реализации компьютерная техника или нет. Однако уже на самых ранних этапах развития этой науки стало понятно, многие технические системы достигли такого уровня сложности, который не позволяет управлять ими с требуемой быстротой и точностью без помощи автоматических или автоматизированных систем обработки информации. И поэтому вся история становления кибернетики теснейшим образом переплетается с развитием вычислительной техники.

Выдающийся американский ученый фон Нейман, разработавший принципиальную схему работы вычислительной машины, также считается одним из родоначальников кибернетики. Его работы во многом способствовали ее становлению. Но компьютеры могут использоваться для обработки любой, не обязательно управленческой информации, и поэтому отождествлять кибернетику с компьютерной обработкой информации также совершенно неправильно.

Примерно в это время, в 40-50 гг. ХХ в., параллельно с кибернетикой и теорией информации начала формироваться и еще одна наука, получившая в англоязычных странах название computer science (наука о компьютерной технике).

Считается, что чуть позже, в 60-х гг. во Франции для обозначения области, занимающейся автоматизированной обработкой информации с помощью электронных вычислительных машин, стали использовать термин «информатика» (Informatique), образованный объединением слов Information и Automatique (информация и автоматизация) .

Широкое распространение термин «информатика» получил в период массового внедрения персональных компьютеров в 80-х гг.

Согласно одной из них научная дисциплина именно с таким названием существовала и успешно развивалась с 40-50 гг. Она исследовала структуру и общие свойства научной информации, т.е. сведений, отображающих объективные закономерности природы, общества и мышления, изучала процессы обмена научной информацией – от устного общения на конференциях до публикаций в виде научных статей или монографий. В практическом плане информатика вырабатывала способы сбора, хранения, поиска, распространения научной информации.

Есть также мнение, что информатика зародилась в рамках науки об обработке документов, основанной бельгийским ученым Полем Отле и была тесно связана с делопроизводством, библиотечным и архивным делом, книговедением и т.п. А пришедшее к нам из Франции слово не стало новым, просто его более широкое значение вытеснило старое .

Нет единства взглядов у ученых не только на историю формирования данного научного направления, но и на его предмет и место в современной системе наук.

Многие по-прежнему считают, что информатика является одним из направлений кибернетики и должна исследовать процессы передачи и обработки управленческой информации (не обязательно машинной). Другие полагают, что информатика – это область человеческой деятельности, связанная исключительно с процессами преобразования информации с помощью компьютеров.

Нам представляется более правильной вторая точка зрения. Информатика как фундаментальная наука должна заниматься разработкой методологии автоматизации информационных процессов в различных сферах деятельности, исследованием и обобщением знаний об автоматизированных информационных системах и технологиях, выявлением общих закономерностей их создания и функционирования.

Изучением же информационных процессов в более широком контексте следует заниматься в рамках отдельной дисциплины, которую, видимо правильно, называть «Информационные технологии», предметом которой должны стать любые информационные процессы вне зависимости от того, автоматизированы они или нет. Эта дисциплина должна интегрировать знания, накопленные в этой области другими науками: философией, кибернетикой, информатикой, языкознанием, лингвистикой, биологией, психологией и пр.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]