Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Документ Microsoft Office Word (8).docx
Скачиваний:
4
Добавлен:
26.04.2019
Размер:
197.58 Кб
Скачать
  • Что такое информация?

Слово «информация» происходит от латинского «informatio», что означает сведения, разъяснения, изложение.

В повседневной жизни под «информацией» понимают знания, сообщения, присущие только человеческому сознанию.

Однако, понятие информации шире. Это такая же фундаментальной категория, как материя, энергия. В отличие от них информация может возникать и исчезать.

  • С позиций материализма информация – это результат отражения одного объекта в другом. То есть в перечень всеобщих свойств материи (пространство, время, движение…) входит отражение (способность объектов адекватно отображать другие объекты). Наличие отражения свидетельствует о наличии информации.

  • Формы отражения: сознание, психика, раздражительность, запечатление взаимодействия.

  • Информация проявляется только при взаимодействии объектов и передается от «источника» к «приемнику» в виде сигналов (физических процессов), распространяющихся в среде.

  • Информатика и информация. Основные понятия

  1. Термин «информатика» (информационная автоматика) первыми использовали немецкие и французские исследователи на рубеже 1960-х годов. Этот термин принят в европейских странах. В английском языке используют термины «Сomputer science» (компьютерная наука), «Information science» (наука об информации), «Computational Science» (наука о вычислениях).

  2. Теоретические основы информатики заложены :

  • кибернетикой – наукой об общих законах управления в природе и обществе, а также связанных с ними процессах преобразования информации (основана американским математиком Норбертом Винером, опубликовавшим в 1948 году книгу «Кибернетика или управление и связь в животном и машине»).

  • вычислительной математикой – предоставляет возможность алгоритмизировать процессы обработки информации;

  • документалистикой – изучает средства и методы повышения эффективности документооборота.

  • Информатика в России

  • Несмотря на широкую распространенность термина «информатика», у специалистов до сих пор нет единого мнения о его толковании.

Существуют три подхода: • сверхширокий, включающий в информатику все, что связано с любыми процессами получения, преобразовании и передачи информации; • широкий, включающий в информатику все, что связано с компьютерами, в том числе вопросы конструирования вычислительной техники; • узкий, определяющий информатику только как науку о применении компьютеров, то есть как науку о компьютерных технологиях.

  • Предметная область современной информатики

Теоретическая информатика включает философские основы информатики, математические и информационные модели и алгоритмы, методы разработки и проектирования информационных систем и технологий.

Средства информатизации - это технические средства обработки, отображения и передачи данных, а также программные средства (системные, универсальные и профессионально-ориентированные).

Информационные технологии воплощаются в конкретных средствах, методах и способах сбора, накопления, поиска, обработки, приема и передачи данных.

Социальная информатика рассматривает информационные ресурсы как фактор социально-экономического и культурного развития общества, приводящий к значительным изменениям в науке, образовании, способе производства и других сферах человеческой деятельности.

  • Основным предметом изучения информатики являются информационные процессы, а также методы, средства и технологии их организации. Важнейшими информационными процессами являются процессы хранения, передачи и обработки информации.

Примечание: информационный процесс- всякая совокупность действий, производимых над информацией.

  • Информация

К определению термина «информация» имеется несколько подходов:

  • в повседневной жизни, под информацией подразумеваем новые знания;

  • при вероятностном подходе информация — это сведения, снимающие некоторую неопределенность, неполноту знаний об объектах и явлениях окружающего мира;

  • в технике под информацией понимают сообщения, передаваемые и воспринимаемые различными системами в форме сигналов;

  • в кибернетике информация – это характеристика сигнала, управляющего системой.

Свойства информации:

  • объективность – независимость от личного мнения или суждения;

  • достоверность – отражение истинного положения дел;

  • полнота – достаточность для решения поставленной задачи;

  • актуальность – существенность в настоящий момент;

  • полезность – возможность решить поставленную задачу;

  • понятность – изложение на доступном для получателя языке;

  • адекватность – соответствие воспроизводимому информационному объекту с точки зрения принятых критериев и пр.

  • Понятия: «данные, знания, алгоритм, компьютер»

  • Зарегистрированные сигналы называют данными. Этот термин также употребляется для обозначения информации, поступающей в систему (исходные данные). Данные это сведения, представленные в виде, позволяющем хранить, передавать или обрабатывать их. Информация- результат взаимодействия данных с адекватными методами.

  • Информацию, содержащую умозаключение, обычно называют знанием. Основные модели представления знаний :

  • декларативная, в которой знания представлены в виде фактов, характеризующих некоторый объект или отношения между объектами;

  • продукционная - основана на правилах; она позволяет представить знания в виде предложений типа «Если (условие), То (действие)».

Условно говоря, знания первой группы начинаются словами «Я знаю, что …», а знания второй группы – словами «Я знаю, как …»

Процесс решения задачи обычно основывается на использовании знаний.

  • Модель процесса решения часто приобретают форму алгоритма. Алгоритм - это конечная, упорядоченная последовательность однозначных указаний, приводящая к решению задачи.

  • Всякий алгоритм разрабатывается в расчете на конкретного исполнителя. Алгоритм управляет формальным исполнителем.

  • В современном мире основным формальным исполнителем является компьютер. «Сomputer» означает вычислитель, поэтому компьютеры также называют вычислительными машинами (ВМ). (АВМ и (ЦВМ).

  • Основу компьютеров образует аппаратура (технические средства - Hardware ),

  • Принцип действия компьютеров состоит в выполнении программ (Software) .

  • Система передачи и качество информации

  • Источник посылает сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи и сопровождается воздействием шума (помех), вызывающего искажение и потерю информации. Принимаемый сигнал декодируется и становится принимаемым сообщением (рисунок).

  • О качестве информации можно говорить в трех аспектах.

  • Технический аспект характеризует точность, надежность, скорость передачи сигналов, объем данных хранимых в памяти, способы регистрации сигналов.

  • Прагматический аспект характеризует ценность и полезность информации для получателя..

  • Семантический аспект характеризует точность передачи смысла сообщений.

  • Меры информации

  • Сообщение как совокупность знаков может анализироваться на трех уровнях изучения знаковых систем:

  • -синтаксическом, где рассматриваются внутренние свойства сообщения, т.е. отношения между знаками (правильность записи);

  • - семантическом, где рассматриваются внешние свойства сообщения–отношения между знаками и обозначаемыми ими предметами (смысловое содержание),

  • - прагматическом, где также рассматриваются внешние свойства –. отношения между сообщением и получателем (полезность для получателя);

  • Для каждого уровня имеются свои подходы к измерению количества информации и свои меры информации.

Меры синтаксического уровня не связаны с содержанием информации. Используются два подхода: объемный и энтропийный, и два параметра: объем информации (данных) V и количество информации I соответственно.

  • Объемный подход

  • Объемный подход основан на подсчете количества символов (разрядов числа), из которых образовано сообщение. Объем информации в сообщении, содержащем один символ, принимается за единицу.

  • При использовании двоичной системы единица измерения – это двоичный разряд (binany digit), сокращенно - бит . При использовании десятичной системы единица измерения – десятичный разряд (дит).

  • Если какой-либо материальный объект, реагируя на внешнее воздействие, способен находиться в одном из двух устойчивых состояний, которые условно обозначаются обычно как «0» и «1», то он обладает минимальной информационной ёмкостью, равной 1 бит. Наименование этой единицы измерения предложено в 1946 году американцем Джоном Тьюки.

  • Так, например, один бит информации:

  • будет получен в ответе на вопрос, если возможны только два ответа «да» /«нет», «истина»/ «ложь»;

  • способна передать точка изображения, которая может быть либо черной, либо белой;

  • содержит ячейка памяти компьютера, которая в каждый момент времени находится в одном из двух состояний: «0» или «1».

  • Если материальный объект имеет число вариантов устойчивых состояний больше двух, то его информационная емкость больше, чем 1 бит, если вариантов меньше двух, то он не способен получать и передавать информацию.

  • Энтропийный подход

Этот подход основан на том, что получение информации уменьшает неопределенность (энтропию) системы. Поэтому количество информации определяется как мера уменьшения неопределенности состояния системы после получения сообщения.

  • Формула РальфаХартли (1928 г):

где I - количество информации в сообщении;

N - количество возможных равновероятных сигналов.

Если объект переходит в одно состояние из двух равновозможных (лампа включается или выключается). Тогда, по формуле Хартли, N=2, информационная емкость (информационный объем) этого объекта составляет

Если у объекта шесть равновероятных состояний (игральная кость), то его информационная емкость равна и т.д.

  • Таким образом, в формуле Хартли отражается следующий важный закон:

  • Чем больше разнообразных сигналов способен передать объект, тем больше его информационная емкость.

  • Информационная ёмкость носителя информации, не может быть меньше 1-го бита, но количество получаемой информации может быть и меньше, чем 1 бит..

  • Клод Шеннон в 1948 году обобщил понятие меры неопределенности выбора H на случай, когда Н зависит от вероятностей событий pi.

  • Формула Шеннона имеет вид:

где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.

  • Пример 1.

Пусть в непрозрачном мешке находится 10 шаров, из которых один черный и девять белых, тогда вероятность вытащить наугад белый шар равна p1=9/10 , вероятность достать черный шар p2=1/10 . Вынимая из мешка наугад один из шаров, получаем количество информации по формуле Шеннона:

  • Легко заметить, что если вероятности всех событий равны, то формула Шеннона сводится к формуле Хартли.

  • Величину, характеризующую количество неопределенности (H), в теории информации называют информационной энтропией.

Количество информации I равно утраченной неопределенности H.

При частичном снятии неопределенности полученное количество информации и неснятая неопределенность составляют в сумме исходную неопределенность.

  • Семантическая мера информации ?

  • Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение. Для этого используется понятие тезаурус пользователя.

  • Тезаурус — это совокупность сведений, которыми располагает пользователь или система.

  • В зависимости от соотношений между смысловым содержанием информации S и тезаурусом пользователя Sp изменяется количество семантической информации Ic, воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус. Рассмотрим два предельных случая, когда количество семантической информации Ic равно 0:

  • • при Sp→0 пользователь не воспринимает, не понимает поступающую информацию;

  • • при Sp→∞ пользователь все знает, и поступающая информация ему не нужна..

  • Максимальное количество семантической информации Ic потребитель приобретает при согласовании ее смыслового содержания S со своим тезаурусом Sp (Sp = Sp opt), когда поступающая информация понятна пользователю и несет ему ранее не известные (отсутствующие в его тезаурусе) сведения.

  • Прагматическая мера информации

  • Эта мера определяет полезность информации (ценность) для достижения пользователем поставленной цели. Эта мера также величина относительная, обусловленная особенностями использования этой информации в той или иной системе.

  • Ценность информации целесообразно измерять в тех же самых единицах (или близких к ним), в которых измеряется целевая функция (в денежном выражении, скорости принятия решения и т.д).

  • Дополнение

  • Появление информатики

  • Первоначально информатика являлась базой библиотечного дела, занималась изучением структуры и общих свойств научной информации. Как это получилось?

  • Слово «информатика» появилось в русском языке в 1968 году на обложке второго издания книги директора Всесоюзного института научной и технической информации А.И. Михайлова и соавторов.

  • Первое издание книги, посвященной вопросам документалистики и библиографических информационно-поисковых систем, называлось «Основы научно-технической информации», а для второго авторы изобрели новое слово – информатика.

  • Со временем программирование и пограничные науки начали самоопределяться, выделяясь из кибернетики, им понадобилось собственное емкое и выразительное название.

  • В 1976 году Андрей Петрович Ершов готовил к изданию перевод с немецкого языка учебника, излагающего основы программирования. В оригинале книга называлась «Informatik», и авторы объясняли это слово как немецкий перевод для «computer science». Ершов предложил не мучиться с подбором русских аналогов и назвать книгу «Информатика» , при этом он написал в предисловии, что сознательно идет на терминологический конфликт, так как считает, что этот термин был незаслуженно перехвачен Михайловым. В 1980-е годы к информатике стали относить науки, ранее относящиеся к кибернетике.

  • Хранение и передача данных

  • Носителями информации могут являться любые объекты и системы материального мира. Передачу информации обеспечивает всеобщее свойство материи, называемое отражением.

  • Материя проявляет себя в виде вещества или в виде поля. Вещество способно хранить информацию, а поля способны быстро переносить её. Предельная скорость распространения поля в вакууме равна скорости света (с≈ 3×108 м/с).

  • Информация передается в виде сообщений или сигналов от ее источника к получателю (приемнику). В зависимости от того, меняются свойства приёмника информации под воздействием источника непрерывно (плавно) или дискретно (скачкообразно), формируемый им сигнал имеет непрерывную или дискретную форму. Непрерывный сигнал может принимать бесконечное множество значений, а дискретный - конечное.

  • Природные процессы чаще протекают непрерывно (изменение напряжения, температуры, давления, скорости). Непрерывно меняющиеся величины и соответствующие им сигналы называют аналоговыми.

  • Модели реальных процессов часто являются дискретными.. Дискретны все сигнальные (символьные) системы, созданные человеком для обмена информацией, т.е. любая из них использует конечное число возможных значений.

  • Для получения из непрерывного сигнала его дискретного представления значение сигнала измеряют через равные промежутки времени, и соотносят полученные результаты со шкалой (приписывают каждому результату одно значение из возможного множества).

  • Ключевые исследования, повлиявшие на становление информатики (1930-40 г)

  • Алан Тьюринг - предложил абстрактную модель алгоритмической машины (машину Тьюринга, преобразующую входные данные с помощью последовательности элементарных действий);

  • Норберт Винер - открыл универсальность механизмов обработки информации в технике, живых организмах и человеческом обществе;

  • Клод Шеннон - разработал общие схемы процесса передачи информации и дал им математическую интерпретацию;

  • Джон фон Нейман - сформулировал общие технические принципы построения современных компьютеров.

  • Совершенствование промышленного производства электронной техники привело к созданию материальной базы современной информатики.

В 1970-е годы информатика получила статус самостоятельной научной дисциплины.

Некоторые понятия алгебры логики, логические элементы компьютера

Оценка сообщений с позиций алгебры логики

Алгебра логики — это математический аппарат, с помощью которого записывают, вычисляют, упрощают и преобразовывают логические высказывания. Создателем алгебры логики (ХIХ век) считается английский математик Джордж Буль, в честь которого эта алгебра названа булевой.

Логическим высказыванием называют любое повествовательное предложение, в отношении которого однозначно известно, истинно оно или ложно. Так, например, о сообщении «Белый гриб съедобен» можно сказать, что оно истинное высказывание. Сообщение «Все грибы съедобны» – пример ложного высказывания. Таким образом, алгебра логики по существу двузначна.

Высказывания, образованные из других высказываний с помощью логических связок («и», «или», и др.), называются сложными или составными. Высказывания, не являющиеся составными, называются элементарными. Например, высказывания «Три – число нечетное» и «Три – число простое» являются элементарными, тогда как высказывание «Три – число нечетное и простое» составное. В последнем высказывании союз «и» употребляется как логическая связка

Cложное высказывание, истинное для всех значений входящих в него переменных, называется тождественно истинным или тавтологией. Тавтологиями являются все математические законы, например: истинно для любых a и b следующее выражение: а2 – в2 = (а-в)(а+в).

Сложное высказывание, ложное при всех значениях входящих в него переменных, называется тождественно ложным.

Если значения сложных высказываний совпадают при всех возможных значениях входящих в них переменных, то такие высказывания называют равносильными, тождественными или эквивалентными.

Логические операции

В информатике вместо термина «логическая связка» принято употреблять термин «логическая операция».

Рассмотрим действие основных логических операций, принимая, что 0 – представляет значение «ложь», а 1 – логическое значение «истина».

1) Операция AND (И)- конъюнкция (лат. conjunctio – соединение), логическое умножение. Обозначается символом Ù, иногда &.

Она реализует следующую конструкцию логического высказывания: «результат операции будет истинным только в том случае, если оба входных сообщения истинны»:

1Ù1=1,

1Ù0=0,

0Ù1=0,

0Ù0=0.

2) Операция OR (ИЛИ) – дизъюнкция (лат. disjunctio – разделение). Обозначается символом Ú.

Реализует словесную конструкцию: «результат будет истинным, если истинно хотя бы одно из входных сообщений»:

1Ú1=1,

1Ú0=1,

0Ú1=1,

0Ú0=0.

3) Операция NOT (НЕ) – логическое отрицание. Обозначается символом Ø, иногда ¯.

Отличается от рассмотренных операций тем, что имеет только одно входное значение, причем результатом всегда будет значение противоположное, например:

¬1=0, ¬0=1.

Пример

Простое высказывание – повествовательное предложение, о котором можно сказать, истинно оно или ложно. Сложное высказывание составляют из простых с помощью логических операций.

4) Операция XOR – исключающее ИЛИ. Обозначается символом Ä.

Реализует конструкцию «результат будет истинным, если истинно либо то, либо другое из входных значений, но не оба одновременно», например:

1Ä1=0,

1Ä0=1,

0Ä1=1,

0Ä0=0.

5) Импликация (лат. implico – тесно связаны). Обозначается символом ®.

Выражается в конструкциях: “если ..., то”, “из ... следует”, “... влечет ...”. Например, «из A следует B», «если верно сообщение А, то верно и В», «наступление события А влечет наступление события В»: A®B.

Импликация двух высказываний ложна тогда и только тогда, когда из истинного высказывания следует ложное (истинная предпосылка ведет к ложному выводу):

1®1=1,

1®0=0,

0®1=1,

0®0=1.

6) Эквиваленция (или двойная импликация). Обозначается символом « или ~.

Выражается высказываниями типа “тогда и только тогда”, "необходимо и достаточно”, “равносильно”. Например, «A равносильно B» (и наоборот)», «для наступления события А необходимо и достаточно наступления события В»: A«B.

Эквивалентность двух высказываний истинна, тогда и только тогда, когда оба эти высказывания истинны, или оба ложны:

1«1=1,

1«0=0,

0«1=0,

0«0=1.

Основными операциями считаются конъюнкция, дизъюнкция и отрицание. Через них можно выразить остальные.

Например, операция импликации выражается через отрицание и дизъюнкцию:

A®B = Ø АÚВ.

Операция эквивалентности заменяется двумя равносильными выражениями:

A«B = (A Ù B) Ú (¬A Ù ¬B),

A « B = (A Ú ¬B) Ù (¬A Ú B).

Порядок выполнения логических операций задается круглыми скобками. Иначе порядок действий следующий: сначала выполняется операция отрицания (NOT), затем конъюнкция (AND), после конъюнкции – дизъюнкция (OR или XOR) и в последнюю очередь – импликация и эквиваленция.

Пример сложного логического высказывания: АÚ(B→C) Ù D « Ø (A)

Порядок выполнения:

Ø (А) – инверсия

В → С – импликация

(В → С) Ù D – конъюнкция

А Ú (B → C) Ù D – дизъюнкция

А Ú (BC) Ù D = не(A) – эквивалентность

Основные законы равносильности алгебры логики

Эквивалентные преобразования опираются на основные законы - выражения, которые всегда истинны, независимо от значений переменных. Логические законы выражают в виде формул.

1) Закон тождества:

А = А – всякий объект тождественен сам себе, то есть «А есть А», где А – любое высказывание.

2) Закон исключенного третьего:

А Ú ¬А = 1 – в один и тот же момент времени высказывание может быть либо истинным, либо ложным, третьего не дано. Истинно либо А, либо не А.

3) Закон непротиворечия:

¬(¬ А Ù А) = 1 – не могут быть одновременно истинными суждение и его отрицание. То есть, если высказывание А - истинно, то его отрицание ¬А должно быть ложным (и наоборот). Тогда их произведение будет всегда ложным, т.е. А Ù¬А =0.

Последняя формула часто используется при упрощении сложных логических выражений.

4) Закон двойного отрицания:

¬ ¬А = А – если отрицать дважды некоторое высказывание, то в результате получается исходное высказывание.

5) Законы, характеризующие свойства констант:

¬0 = 1,

¬ 1 = 0,

А Ú 0 = А,

А Ù 0 = 0,

А Ú 1 = 1,

А Ù 1 = А.

Логические элементы компьютера

Устройство, которое выполняет булеву операцию в компьютере (или в другом техническом устройстве), называется логическим элементом или вентилем. Физически вентиль – это небольшая электрическая цепь, в которой два значения 0 и 1 представляются разными уровнями электрического напряжения.

Рассмотрим основные типы логических элементов, их условные графические обозначения, а также связанные с ними таблицы истинности:

1) Элемент «и» (and), конъюнктор

Единица на выходе элемента «И» возникает только тогда, когда на оба входа поданы единицы. Это объясняет название элемента: единицы должны быть и на одном, и на другом входе..

2) Элемент «или» (or) – дизъюнктор

На выходе этого элемента возникает единица, когда на один ИЛИ на другой ИЛИ на оба сразу входа подана единица.

3) Элемент «НЕ» (NOT) – инвертор. Сигнал на выходе этого элемента противоположен входному сигналу. Инвертор

4) Элемент «И-НЕ» (NAND) Вентиль NAND

Элемент И-НЕ работает точно так же как «И», только выходной сигнал противоположен.

Это легко понять по эквивалентной схеме элемента NAND.

5) Элемент «или-не» (nor).

Работает как элемент «ИЛИ», но с инвертором на выходе. Элемент NOR

6) Элемент «Исключающее или» (xor)

Вентиль XOR

На выходе этого элемента появится единица лишь в том случае, если на входы поступят разные по значению сигналы: на одном – 1, на другом – 0.

Триггеры

Вентили используют для конструирования триггеров (trigger – защелка, спусковой крючок). Выходной сигнал триггера (0 или 1) не меняется до тех пор, пока одиночный импульс от другой схемы не переведет триггер в противоположное состояние.

Чтобы установить у триггера выходное значение, равное 1 (рис.А) :

а) На верхний вход подают 1. Это вызовет появление 1 на выходе вентиля OR, что, в свою очередь, вызовет появление 1 на выходе вентиля AND

б) Теперь наличие 1 на выходе AND удерживает вентиль OR даже после снятия 1 с верхнего входа (рис. Б).

Чтобы установить у триггера(рис. Б) выходное значение, равное 0, надо подать на нижний вход значение 1. Тогда на выходе инвертора появится значения 0, что вызовет появление 0 на входе и выходе вентиля AND, а также на входе вентиля OR и на выходе триггера.

Величина, сохраняемая в триггере, определяется его выходным значением. Для изменения этого значение другие схемы посылают импульсы на входы триггера.

Разрабатывая триггер вентили используют в качестве «строительных блоков». Затем триггеры используют в качестве элементов для создания более сложных схем. Таким образом, разработка общей схемы компьютера приобретает иерархическую структуру, в которой на каждом уровне в качестве абстрактных инструментов используются компоненты, созданные на предыдущих уровнях.

Главное значение триггерной схемы в том, что она является идеальным механизмом для хранения двоичных данных (битов) внутри компьютера. Триггер обеспечивает создание элементарной ячейки памяти, необходимой для хранения одного из двух знаков («0» или «1»), используемых для внутримашинного представления данных и команд.

Чаще применяется более крупная единица — байт, содержащая восемь последовательных битов - восьмиразрядное двоичное слово. Так, для того, чтобы представить любой из 256 символов, вводимых с клавиатуры компьютера, необходимо и достаточно восемь двоичных разрядов (28 = 256 бит = 1 байт).

Широко используются также более крупные производные единицы информации:

1 Килобайт (Кбайт) = 1024 байт = 210 байт,

1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,

1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

  • Алгебра логики удобна для описания работы аппаратных средств и позволяет упростить логические функции, а, следовательно, уменьшить число элементарных логических элементов, из которых состоят основные узлы компьютера.

Составление логического выражения по таблице истинности

Дополнение

Законов и правил логики очень много. Cамые первые, те, по отношению к которым остальные являются производными, сформулированы Аристотелем: закон запрета противоречия, закон тождества, закон исключенного третьего, четвертый закон – достаточного основания – выдвинут немецким математиком и философом семнадцатого-восемнадцатого веков Лейбницем.

Существует три фундаментальных свойства логической мысли - определенность, последовательность и обоснованность. Они являются обязательными для мышления, когда оно занимается рассуждением. Основные законы логики отражают эти специфические черты мыслительной деятельности и в этом смысле производны от них.

Определенность означает, что любая вещь, ставшая предметом логического анализа, обязательно должна мыслиться в совокупности одних и тех же однажды выделенных признаков; они задаются при определении понятий, и не могут бесконтрольно изменяться в рамках одного и того же рассуждения.

Под последовательностью принимают то, что, приняв какое-либо положение за истинное, необходимо принимать и все вытекающие из него следствия, придерживаться их неукоснительно.

Обоснованность отражает факт взаимозависимости любых мыслей от многих других; в логике можно рассматривать только такие высказывания, которые могут быть обоснованы, выведены из других положений. Содержание обоснованности раскрывается законом достаточного основания

1. ЗАКОН ТОЖДЕСТВА. Всякая мысль тождественна самой себе, т.е. субъект рассуждений должен быть строго определен и неизменен до их окончания. Нарушением этого закона является подмена понятий (часто используется в адвокатской практике).

2. ЗАКОН НЕПРОТИВОРЕЧИЯ. Два противоположных суждения не могут быть одновременно истинны: по крайней мере одно из них ложно.

3. ЗАКОН ИСКЛЮЧЕННОГО ТРЕТЬЕГО. Истинно либо суждение, либо его отрицание ("третьего не дано").

4. ЗАКОН ДОСТАТОЧНЫХ ОСНОВАНИЙ. Для истинности всякой мысли должно быть достаточно оснований, т.е. умозаключение необходимо обосновать исходя из суждений, истинность которых уже доказана.