
- •1. Основные подходы в определении понятия информации (характеристика информации как устранённой неопределённости, снятой неразличимости, отражённого разнообразия)
- •2. Количество информации, ее определение. Единица информации. Понятие энтропии в теории информации.
- •1) 2) 3)
- •5. Барьеры в информационном взаимодействии. Общие понятие виды.
- •6. Понятие системы. Системные принципы. Классификация систем
- •9. Специфика информационных потребностей ученых, специалистов, инженеров менеджеров и способы их изучения.
1) 2) 3)
Возможным способом измерения эффективности коммуникации является степень изменения тезауруса реципиента при получении некоторого сообщения.
Итак, количество семантической информации может определяться долей "новых" для реципиента элементов тезауруса сообщения,
Как известно, в классической теории информации понятие информации связано со снятием неопределенности, которая существовала до сообщения.
4. ТИПОЛОГИЯ, ОБЩИЕ СВОЙСТВА ИНФОРМАЦИИ И ЗАКОНОМЕРНОСТИ РАСПРОСТРАНЕНИЯ ИНФОРМАЦИИ, В ЧАСТНОСТИ НАУЧНОЙ
ТИПОЛОГИЯ, ОБЩИЕ СВОЙСТВА ИНФОРМАЦИИ
Информация (от лат.—осведомление, разъяснение, изложение) сведения (сообщения, данные) независимо от формы их представления – это абстрактное понятие, имеющее множество значений, в зависимости от контекста. Обычно под информацией понимаются сведения, сообщения, данные и т.д.
Основные виды (типы) информации по ее форме представления, способам ее кодирования и хранения, что имеет наибольшее значение для информатики, это:
графическая или изобразительная — первый вид, для которого был реализован способ хранения информации об окружающем мире в виде наскальных рисунков, а позднее в виде картин, фотографий, схем, чертежей на бумаге, холсте, мраморе и др. материалах, изображающих картины реального мира;
звуковая — мир вокруг нас полон звуков и задача их хранения и тиражирования была решена с изобретением звукозаписывающих устройств в 1877 г.; ее разновидностью является музыкальная информация — для этого вида был изобретен способ кодирования с использованием специальных символов, что делает возможным хранение ее аналогично графической информации;
текстовая — способ кодирования речи человека специальными символами — буквами, причем разные народы имеют разные языки и используют различные наборы букв для отображения речи; особенно большое значение этот способ приобрел после изобретения бумаги и книгопечатания;
числовая — количественная мера объектов и их свойств в окружающем мире; особенно большое значение приобрела с развитием торговли, экономики и денежного обмена; аналогично текстовой информации для ее отображения используется метод кодирования специальными символами — цифрами, причем системы кодирования (счисления) могут быть разными;
видеоинформация — способ сохранения «живых» картин окружающего мира, появившийся с изобретением кино.
Доминирующий признак социальной информации – ее общественное назначение, согласно которому выделяют информацию массовую, групповую и межличностную.
Массовая информация – это разновидность социальной информации, предназначенной для всех и использующейся всем населением.
Групповая информация отражает более глубокое представление о различных сторонах материального мира, общества и человеческого мышления.
Межличностная информация адресуется кругу лиц, связанных родственными, дружескими, профессиональными и другими отношениями.
В групповой информации целесообразно выделить информацию научную, техническую, производственную, научно-техническую. Особенно важную роль играет научная информация. Научная информация – это получаемая в процессе познания логическая информация, адекватно отражающая явления и законы природы, общества и мышления и используемая в общественно-исторической практике. Адекватность отображения научной информацией реального мира означает, что она должна обладать способностью повышать уровень человеческих знаний. Создать истинно научную информацию индивид способен только в том случае, если он овладел современным уровнем знаний.Техническая информация создается в процессе исследований и разработок в области механизации и автоматизации трудовой деятельности, производственная возникает в сфере производства, сбыта и использования промышленной и сельскохозяйственной продукции.
Фундаментальные свойства информации выделяют: запоминаемость, передаваемость, преобразуемость, воспроизводимость, стираемость.
Свойства информации, определяющие ее качества. Под качеством информации понимают степень её соответствия потребностям потребителей.
Объективность информации характеризует её независимость от чьего-либо мнения или сознания, а также от методов получения. Более объективна та информация, в которую методы получения и обработки вносят меньший элемент субъективности.
Полнота. Информацию можно считать полной, когда она содержит минимальный, но достаточный для принятия правильного решения набор показателей. Как неполная, так и избыточная информация снижает эффективность принимаемых на основании информации решений.
Достоверность - свойство информации быть правильно воспринятой. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Причинами недостоверности могут быть: преднамеренное искажение (дезинформация), непреднамеренное искажение субъективного свойства; искажение в результате воздействия помех; ошибки фиксации информации.
Адекватность - степень соответствия реальному объективному состоянию дела. Доступность информации - мера возможности получить ту или иную информацию. Актуальность информации — это степень соответствия информации текущему моменту времени.
"Научная информация - это получаемая в процессе познания логическая информация, которая адекватно отображает явления и законы природы, общества и мышления и используется в общественно-исторической практике"
Область человеческого познания охватывает практику: и материальное производство, и науку, и деятельность людей по преобразованию общества. Таким образом, источником научной информации служит вся практика, а не только научно-исследовательская деятельность.
Информация становится научной лишь тогда, когда она подвергнута обработке абстрактно-логическим мышлением и облечена в языковую форму. Это отличает ее от эстетической информации, например.
Формальная структура научной информации имеет иерархический характер, на ее нижних ступенях находятся буквы, предложения и т.д. , а на высшей ступени - научная литература, которая является специфическим социальным явлением, входящим в сферу научной коммуникации.
СВОЙСТВА НАУЧНОЙ ИНФОРМАЦИИ.
Научная информация характеризуется рядом следующих свойств, которые прежде всего указывают на ее принадлежность к социальной и семантической информации, а затем и ее специфичность:
всегда закреплена на материальном носителе;
в целом не обладает свойствами аддитивности, коммутативности и ассоциативности. К элементам научного сообщения нельзя применить простые алгебраические правила;
обладает ценностью для ее получателя. Эта ценность связана с той целью, которую получатель хочет достичь при помощи информации или которую эта информация заново ставит. Представление о цели информации связывает ее с процессами ( например, кибернетическими) в живой природе и означает, что в неживой природе научная информация не существует;
имеет общественную природу. Об этом свидетельствуют все процессы научной коммуникации - от простого диалога между учеными до взаимодействия отдельного человека со всеми накопленными человечеством знаниями;
имеет семантический характер, она связана с понятиями, смыслом, значением. Это означает, что научная информация является языковой связью только между людьми;
имеет языковую природу. Она приобретает смысл, семантическое содержание только в результате абстрактно-логического мышления, которое невозможно вне естественного языка;
независима в своем содержании от языка, на котором она выражена, и от вида физического носителя, на котором она закреплена. Эта инвариантность научной информации не только является фундаментальной предпосылкой научного обмена в человеческом обществе и многообразия ее материальных воплощений, но и отличает научную информацию от эстетической;
обладает свойством дискретности, которое происходит от дискретности языковых знаков, при помощи которых она образована, а также от "прерывности" временных моментов, в которые происходит отчуждение "квантов" информации, возникающих в процессе мыслительных актов и их письменного закрепления в научных произведениях;
обладает свойством кумулятивности. Каждый научный работник может и должен делать приращения к современному зданию науки, построенному усилиями предшествующих поколений;
независима от ее творцов. В этом она также отлична от информации эстетической;
стареет специфическим образом, не так, как другие виды информации;
подвергает рассеянию по научным изданиям и произведениям. Это ее свойство тесно связано с процессами дифференциации и интеграции в науке.
Многие свойства научной информации, например, старение и рассеяние, продолжают до сих пор интенсивно изучаться в информатике.
ЗАКОНОМІРНОСТІ ПОШИРЕННЯ ІНФОРМАЦІЇ
Первым эффективным способом хранения и распространения информации стала книга. Количественный рост этих носителей информации способствовал скорейшему её распространению. Затем появились другие средства хранения и распространения информации: радио, кино, телевидение, магнитофон, запоминающие устройства ЭВМ. Поэтому знание закономерностей распространения информации является крайне актуальным и может помочь человеку сориентироваться в экспоненциально растущем царстве документов.
ЗАКОН ЦИПФА
Несколько смягчить создавшееся положение в постоянно увеличивающемся потоке документов поможет закон Ципфа. В конце 40-х годов нашего столетия Дж.Ципф, собрав огромный статистический материал, попытался показать, что распределение слов естественного языка подчиняется одному простому закону, который можно сформулировать следующим образом. Если к какому-либо достаточно большому тексту составить список всех встретившихся в нем слов, затем расположить эти слова в порядке убывания частоты их встречаемости в данном тексте и пронумеровать в порядке от 1 (порядковый номер наиболее часто встречающегося слова) до Я, то для любого слова произведение его порядкового номера (ранга) г в таком списке и частоты его встречаемости в тексте будет величиной постоянной, имеющей примерно одинаковое значение для любого слова из этого списка. Аналитически закон Ципфа может быть выражен в виде: fr=c, где f - частота встречаемости слова в тексте; r - ранг (порядковый номер) слова в списке; с - эмпирическая постоянная величина. Полученная зависимость графически выражается гиперболой. Исследовав, таким образом, самые разнообразные тексты и языки, в том числе языки тысячелетней давности, Дж.Ципф для каждого из них построил указанные зависимости, при этом все кривые I имели одинаковую форму — форму «гиперболической лестницы», т. е. при замене одного текста другим общий характер распределения не изменялся.
ЗАКОН БРЕДФОРДА
Частным случаем вышеупомянутого закона является закон Бредфорда, непосредственно связанный с распределением документов внутри какой-либо тематической области.
Английский химик и библиограф С.Брэдфорд, исследуя статьи по прикладной геофизике и смазке, заметил, что распределения научных журналов, содержащих статьи по смазке, и журналов, содержащих статьи по прикладной геофизике, имеют общий вид. На основании установленного факта С. Брэдфорд сформулировал закономерность распределения публикаций по изданиям
Основной смысл закономерности состоит в следующем: если научные журналы расположить в порядке убывания числа статей по конкретному вопросу, то журналы в полученном списке можно разбить на три зоны таким образом, чтобы количество статей в каждой зоне по заданному предмету было одинаковым. При этом в первую зону, так называемую зону ядра, входят профильные журналы, непосредственно посвященные рассматриваемой тематике. Количество профильных журналов в зоне ядра невелико. Вторую зону образуют журналы, частично посвященные заданной области, причем число их существенно возрастает по сравнению с числом журналов в ядре. Третья зона, самая большая по количеству изданий, объединяет журналы, тематика которых весьма далека от рассматриваемого предмета.
Таким образом, при равном числе публикаций по определенной тематике в каждой зоне число наименований журналов резко возрастает при переходе от одной зоны к другой. С.Брэдфорд установил, что количество журналов в третьей зоне будет примерно во столько раз больше, чем во второй зоне, во сколько раз число наименований во второй зоне больше, чем в первой, и обозначим Р1— число журналов в 1-й зоне, Р2 во 2-й, Р3—число журналов в 3-й зоне.
Если а — отношение количества журналов 2-й зоны к числу журналов 1-й зоны, то закономерность, вскрытая С. Брэдфордом, может быть записана так: Р1: Р2: Р3 = 1 : а : а2 или Р3/Р2 = Р2/ Р1 =a. Эту зависимость называют законом Брэдфорда. Б.Викери уточнил модель С.Брэдфорда. Он выяснил, что журналы, проранжированные (выстроенные) в порядке уменьшения в них статей по конкретному вопросу, можно разбить не на три зоны, а на любое нужное число зон. Если периодические издания расположить в порядке уменьшения в них количества статей по конкретному вопросу, то в полученном списке можно выделить ряд зон, каждая из которых содержит одинаковое количество статей. Примем следующие обозначения: х — количество статей в каждой зоне, Тх — количество журналов, содержащих х статей; Т2х — количество журналов, содержащих 2х статей, т. е. сумма наименований журналов в 1-й и во 2-й зонах; Т3х — количество журналов, содержащих Зх статей, т. е. сумма наименований журналов в 1-й, 2-й и в 3-й зонах; Т4х— количество журналов, содержащих 4х статей. Тогда эта закономерность будет иметь вид Тх: Т2х: Т3х: Т4х:... = 1: а :а2: а3:...
данное выражение называют законом Брэдфорда в толковании Б.Викери.
Если закон Ципфа характеризует многие явления социального и биологического характера, то закон Брэдфорда — это специфический случай распределения Ципфа для системы периодических изданий по науке и технике. Из этих закономерностей можно извлечь выводы огромной практической пользы. Так, если расположить какие-либо периодические издания в порядке убывания количества статей по определенному профилю, то, согласно Брэдфорду, их можно разбить на три группы, содержащие равное количество статей.
ЗАКОНОМЕРНОСТИ КОНЦЕНТРАЦИИ И РАССЕЯНИЯ ИНФОРМАЦИИ
Закономерности концентрации и рассеяния научно-технической информации в царстве документов позволяют выбирать именно те издания, которые с наибольшей вероятностью содержат публикации, соответствующие определенному профилю знаний. В массовом процессе информационного обеспечения в масштабах страны использование этих закономерностей позволяет сократить для народного хозяйства огромные расходы.
Существующее рассеяние публикаций нельзя оценивать только как вредное явление. В условиях рассеяния улучшаются возможности для межотраслевого обмена информацией. Попытка сконцентрировать все публикации одного профиля в нескольких журналах, т. е. не допустить их рассеяния, будет иметь отрицательные последствия, не говоря уж о том, что точное отнесение документа к тому или иному профилю не всегда представляется возможным.
Дальнейшие исследования, среди которых видное место занимают работы советского специалиста в области информатики В.И.Горьковой, показали, что можно определять не только количественные параметры совокупностей научных документов, но и совокупностей элементов признаков научных документов: авторов, терминов, индексов, классификационных систем, наименований изданий...
РАНГОВОЕ РАСПРЕДЕЛЕНИЕ
Упорядоченность задается ранжированием (порядком размещения) наименований элементов по частоте их появления в порядке ее убывания. Такая упорядоченная совокупность наименований элементов называется ранговым распределением. Распределения, которые в свое время изучал Ципф,— это типичные примеры ранговых распределений. Оказалось, что вид рангового распределения, его строение характеризуют ту совокупность документов, к которой относится данное ранговое распределение. Выяснилось, что при построении ранговые распределения в большинстве случаев имеют форму закономерности Ципфа с поправкой Мандельброта:frγ=c.
При
этом коэффициент γ
-
величина переменная. Постоянство
коэффициента γ
сохраняется
только на среднем участке графика
распределения. Этот участок принимает
форму прямой, если график вышеприведенной
закономерности построить в логарифмических
координатах. Участок распределения с
γ
= const
называется
центральной
зоной рангового
распределения (значение
аргумента на этом участке изменяется
от lnr1
до lnr2).
Значениям аргумента от 0 до lnr1,
соответствует зона
ядра рангового
распределения, а
значениям аргумента от lnr2
до lnr3
- так называемая зона
усечения.
Какой же смысл заложен в существовании трех явно различаемых зон ранговых распределений? Если последнее относится к терминам, составляющим какую-либо область знаний, то ядерная зона, или зона ядра рангового распределения, содержит наиболее общеупотребительные, общенаучные термины. Центральная зона содержит термины, наиболее характерные для данной области знаний, которые в совокупности выражают ее специфичность, отличие от других наук, «охватывают ее основное содержание». В зоне усечения же сосредоточены термины, сравнительно редко употребляющиеся в данной области знаний.
Таким образом, основа лексики какой-либо области знаний сосредоточена в центральной зоне рангового распределения.
Так, на основании анализа рангового распределения оказалось возможным дать качественные оценки документальным информационным потокам в соответствии с теми отраслями, науки, где они формировались.