- •Методическое пособие
- •Тема I. Сущность и проблематика семиотики
- •Тема II. Основные понятия семиотики. Методология исследования
- •Тема III. Семиотические пространства на ранних этапах человеческой цивилизации
- •Тема IV. Символические пространства в культуре Древней Месопотамии
- •Тема V. Семиосфера древнеегипетской цивилизации
- •Тема VI. Мифопоэтика в символике культуры Древней Индии и Древнего Китая
- •Тема VII. Инвариантность и трансформации в семиотической ретроспекции цивилизаций Америки
- •Тема VIII. «Альфа» и «Омега» христианской культуры
- •Тема IX. Семиосфера экосистем
- •Тема X. Семиосфера в пространственно-символических измерениях мировых религий
- •Тема XI . Пропорции архитектуры
- •Тема XII. Звук и звучание в семиосфере музыкального творчества
- •Тема XIII. Великая мистификация символического пространства театра
- •Тема XIV. Символика кинематографа
- •Тема XV. Проблема знака и знаковой системы и типология русской культуры IX-нач.Хx вв.
- •Краткий словарь основных понятий и символов
- •Содержание
Тема II. Основные понятия семиотики. Методология исследования
Понятие знака и его значения.
Характеристика знаковых ситуаций. Проблема внутренней речи.
Символ в системе культуры.
Теория информации.
Семиотическое пространство.
Литература
Лотман Ю.М. Семиосфера.- СПб., 2001.
Ветров А.А. Семиотика и ее основные проблемы. – М.,1968.
Лосев А.Ф. Философия имени. –М., 1990.
Войшвилло Е.К. Понятие. – М., 1967.
Мантатов В.В. Образ, знак, условность. – М.,1980.
Налимов В.В. Вероятностная модель языка: О соотношении естественного и искусственного языков. – М., 1979.
Бенвенист Э. Общая лингвистика. – М., 1974.
Вейль Г. Симметрия. – М.. 1968.
Шубников А.В., Копцик В.А. Симметрия в науке и искусстве. - М., 1972.
Винер Н. Кибернетика и общество. – М., 1958.
Шеннон К. Работы по теории информации и кибернетике. – М., 1963.
Кибернетический сборник. – М., 1960.
Моль А. Теория информации и эстетическое восприятие. – М., 1966.
Очерки истории информатики. – Новосибирск, 1998.
В.Н.Тростников. Теория информации и проблемы передачи сообщений //Физика: близкое и далекое. – М., 1963.
Урсул А.Д. Природа информации. – М., 1968.
Шрейдер Ю.А. Об одной модели семантической теории информации //Проблемы кибернетики. Сборник. Вып.13 –М., 1965.
Успенский Б.А. История и семиотика (Восприятие времени как семиотическая проблема) //Уч.зап.Тартуского гос.ун-та. Вып.831.-Тарту, 1988 (Труды по знаковым системам. Т.22.).
Прибрам К. Языки мозга. – М.,1975.
Джонатан Свифт в фантастическом путешествии Гулливера на о.Лапуту описал чудаков-ученых, которые решили заменить слова предметами. Нагруженные разнообразными вещами, тащились они по городу и, вместо того, чтобы произнести слово, протягивали друг другу предметы. Именно в таком положении находилось бы человечество, если бы оно не сделало некогда одного из величайших открытий в своей истории - не изобрело знаков. Знаки заменяют сущности, явления и вещи и позволяют людям обмениваться информацией. Наиболее знакомый и употребимый вид знаков – слова. Широко используются и другие виды знаков–заменителей: деньги – знак стоимости общественно необходимого труда, затраченного на производство вещи; ордена и звания, гербы и ритуалы, обряды – все это знаки, отражающие разные принципы организации человеческого коллектива.
Проблема знака – центральная проблема семиотики. Что же такое знак с точки зрения науки? Прежде всего, знак есть предмет (в широком смысле слова, не только вещь, но и свойства вещей, отношение их друг к другу, событие, факт), доступный восприятию того организма, для которого он выступает в качестве знака. Знак всегда является знаком чего-то. Именно это отношение к чему-то другому делает один предмет знаком другого предмета. Обозначать какой-либо предмет есть не что иное, как указывать на этот предмет, отсылать к этому предмету. Чувственно воспринимаемый предмет, указывающий на другой предмет, отсылающий к нему организм или машину, называется знаком этого предмета, а сами ситуации, в которых один предмет функционирует в качестве знака другого предмета, называются знаковыми ситуациями.
Знак обладает предметным и смысловым значением. Между знаком и предметным значением существует двусторонняя связь (одного нет без другого). Смысловое значение – след предмета, к которому отсылает знак, след, оставляемый в памяти животного, человека или кибернетического устройства прошлым опытом.
Знаковая ситуация характеризуется наличием следующих элементов: 1) предмета, выполняющего при определенных условиях функцию знака; 2) предмета, к которому знак отсылает; 3) смыслового значения (следа), при помощи которого осуществляется отсылка; 4) организованной системы, отсылаемой к определенному предмету. В некоторых случаях наличествует и организованная система, производящая знаки (например, человек, произносящий слова, обращенные к другому человеку).
Языковые и неязыковые знаки. Виды языковых знаков. Язык – другое центральное понятие семиотики. Отличительным признаком языкового знака является то, что он производится животным или человеком и служит средством общения отдельных индивидуумов друг с другом. Неязыковой знак не производится самими организмами, но имеет для них значение знака (например, багровый закат). Человек не производит его в качестве средства общения, а лишь истолковывает определенным образом. Языковые знаки подразделяются на интенциональные (намеренные, с сознательной целью) и неинтенциональные (ненамеренные, инстинктивные, например, круговой танец в языке пчел). Семиотическое определение языка – совокупность языковых смысловых единиц, т.е. совокупность предметов, которые обладают смысловым значением и которые производятся самими организованными системами.
Языки, на которых говорят народы мира («естественные языки»), – самая важная, распространенная и хорошо изученная коммуникативная система. По типу естественных языков во многом организованы все знаковые коммуникативные системы, функционирующие в человеческом обществе. Понятие языка со временем стало толковаться расширенно – «киноязык», «язык танца» или определенный тип социального поведения как особый «язык». Всякий раз, когда мы имеем дело с передачей или хранением информации, мы можем ставить вопрос о языке этой информации. Так возникла общая теория коммуникативных систем.
Значительный вклад в нее сделала теория информации. Эта математическая дисциплина, ставшая со временем общенаучной, зародилась во время Второй мировой войны: перед инженером Шенноном (США) была поставлена проблема изучения надежности линий связи. Шеннон одновременно разработал теорию, которая позволяла измерять количество информации, условия шифрования и дешифровки текста, вероятность искажений и т.п. Основные понятия теории информации – «канал связи», «код», сообщение» и др.
При анализе понятия информации важно учитывать, что вероятность каких-либо событий определяется исходя из их возможности: события могут произойти, а могут и не произойти. Но такие события, как известно, являются случайными. Значит, вероятность – это не только количественная мера возможности наступления события, но и количественная мера степени его случайности. Понятие возможности находится в определенном отношении с понятием неопределенности. Степень неопределенности выбора характеризуется отношением числа выбранных элементов к общему числу элементов совокупности (множества). Увеличение числа элементов во множестве ведет к росту степени неопределенности и к уменьшению вероятности выбора одного элемента (бесконечное число элементов во множестве соответствует бесконечной неопределенности и нулевой вероятности). Казалось бы, между степенью неопределенности и вероятностью получается весьма простая зависимость: Н =1/p, где Н – степень неопределенности, а p – вероятность выбора элемента. Действительно, при p=0 степень неопределенности равна бесконечности. Чем больше вероятность, тем меньше степень неопределенности. Но если p=1, то получаем, что и Н=1, а это неверно. Ведь при p=1 степень неопределенности должна быть равна нулю, ибо выбирать не из чего – в множестве всего один элемент. Зависимость между Н и p должна быть иной. Оказывается, если мы положим, что Н= log 1/p= -log p, то в этом случае условия связи степени неопределенности с вероятностью будут действительны. В самом деле, при p=0 имеем log ∞= ∞ при p=1 log1=0; другими словами, логарифмическая функция есть функция связи числа элементов в множестве, т.е. степени неопределенности с вероятностью выбора одного элемента из этого множества.
В теории информации рассматриваются любые события, в результате которых уменьшается, уничтожается, исчезает неопределенность. Степень уменьшенной неопределенности в результате передачи сообщения называется количеством информации.
В том случае, если вероятности исходов различны, формула приобретает несколько иной вид. Рассмотрим следующий пример. Предположим, что проводится опыт, состоящий в извлечении одного шара из ящика, содержащего один черный и два белых шара (суммарное количество шаров равно трем). Исходя из классического подхода, вероятность выбора черного шара равна 1/3, а вероятность выбора белого шара равна 2/3. В качестве степени неопределенности всего опыта принимается среднее значение неопределенности отдельных возможных исходов. Это среднее значение получается, если вероятность отдельного исхода умножается на его неопределенность и эти произведения складываются. В нашем примере имеем:
Н=1/3 х log23 + 2/3 х log23/2 =0,92 («бита» – сокращение от английского выражения «двоичный разряд»). В общем случае формула степени неопределенности имеет вид:
Н=-Σ р(Аi)log2р(Аi), где предполагается, что производится опыт с
возможными исходами А1, А 2 … Аn , вероятности этих исходов равны р(А1), р( А 2 )… р( Аn) соответственно. Знак Σ означает сокращенную запись суммы произведений - р(Аi), log2 р( А i), то есть - р( А1) log2 р( А 1) -р(А 2 ) log2р( А2) - … - р( Аn) log2р( Аn). Эта формула и была предложена Шенноном в 1948г.
Кроме понятия количества информации существует и понятие ее избыточности, которая определяется следующей формулой R= 1- 1 факт. ,
1 макс.
где I факт. – количество информации в данной совокупности исходов, а I макс.- количество информации в той же совокупности при условии, что все исходы оказались бы равновероятными. Совокупности исходов равной избыточности обладают тем свойством, что с увеличением количества исходов количество информации в них увеличивается.
Мы очень часто пользуемся понятием, категорией избыточности. Например, когда преподаватель несколько раз объясняет студентам материал повышенной сложности, то это и есть не что иное, как использование избыточности с точки зрения информации. То же самое имеет место при телефонном разговоре в условиях плохой слышимости, когда нам приходится произносить одну фразу несколько раз.
В принципе, избыточность информации нужна. И, по-видимому, нужна именно в том количестве, в каком она присутствует в языке. Вспомните роман Жюля Верна «Дети капитана Гранта». Лорд Гленарван и его спутники находят в желудке акулы бутылку и вынимают из нее записку. Многие буквы стерты морем. И, тем не менее, путешественники прочли послание капитана Гранта (хотя и не сразу). Уничтоженные водой буквы они восстановили, пользуясь избыточностью английского языка, зная, что после такой-то буквы следует, как правило, такая-то, а не другая. Если бы избыточность была равна нулю, т.е. допускались бы любые сочетания букв, то даже одну пропущенную букву нельзя было бы восстановить со сколько-нибудь пригодной степенью достоверности.
Избыточность языка помогает и расшифровке кодов. Только благодаря избыточности Шампольон сумел восстановить мертвый язык древних египтян. Блестящим примером использования избыточности служит рассказ Эдгара По «Золотой жук». Герой этого рассказа прочел зашифрованное сообщение о местонахождении клада, опираясь на знание законов языка – распространенности тех или иных английских букв и их сочетаний.
Избыточность как бы застраховывает язык от случайных недопониманий и кривотолков. Если вам крикнули на улице «берегись» и вы не расслышали какие-то звуки, вы все равно поймете окрик и отскочите в сторону. Избыточность сослужит вам в этом случае добрую службу.
Проблема информации оказалась в центре внимания и кибернетики (информация – это не только то, что я узнал, но и то, что я могу узнать: не прочитанная еще книга, неоткрытая звезда – определенные величины информации). Картина мира, составленная отцом кибернетики Н.Винером, - это колоссальная битва организации и дезорганизации информации и разрушения («энтропии»).
Слово «символ» - одно из самых многозначных в системе семиотических наук. Выражение «символическое значение» широко употребляется как простой синоним знаковости. По другой классификации символ определяется как знак, значением которого является некоторый знак другого ряда или другого языка. Этому определению противостоит традиция истолкования символа как некоторого знакового выражения высшей и абсолютной незнаковой сущности. В первом случае символическое значение приобретает подчеркнуто рациональный характер и истолковывается как средство адекватного перевода плана выражения в план содержания. Во втором – содержание иррационального мерцает сквозь выражение, и символ играет роль как бы моста из рационального мира в мир мистический. Таким образом, символ выступает своеобразным конденсатором всех принципов знаковости и одновременно выводит проблему за пределы знаковости.
Всякое существование возможно лишь в формах определенной пространственной и временной конкретности. Человеческая история – лишь частный случай этой закономерности. Сознательная человеческая жизнь, т.е. жизнь культуры, также требует особой структуры пространства-времени. Культура организует себя в форме определенного пространства-времени и вне такой организации существовать не может. Форма и содержание данного пространства-времени является семиосферой, обязательными законами которой служат бинарность и асимметричность.
Проблематика практического занятия по теме 2
Три аспекта семиотической проблематики: синтактика, семантика, прагматика.
Мозг-текст-культура-искусственный интеллект.
Понятие границы семиотического пространства.
Выражение символа и его преломление в линейной и дискретной перспективе исторического времени.
Сравнительная характеристика структуры текста: 1) в различные исторические эпохи; 2) в различных пространственно-временных измерениях.
Теория информации и проблемы передачи сообщений: механизм передачи, обеспечение его надежности.
Теория систем и теория информации.
Формализованные языки.
Реферативная работа
Теория информации в научных исследованиях К.Шеннона и А.Н.Колмогорова.
Проблема симметрии. Виды симметрии: зеркальная, переносная, орнаментальная. Математическая идея симметрии.
Асимметрия мозга и динамика знаковых систем.
