- •«Информатика»
- •Раздел 1. Понятие информации, общая характеристика процессов передачи обработки и накопления информации
- •Понятие об информации, общая характеристика процессов передачи обработки и накопления информации
- •Информатика как научно-учебная дисциплина.
- •Структура информатики
- •Краткая история развития вычислительной техники
- •Кодирование информации.
- •Единицы измерения информации.
- •Кодирование графической информации.
- •Понятие системы счисления. Виды систем счисления
- •Перевод чисел из одной позиционной системы в другую
- •Двоичная арифметика
- •Раздел 2. Программное обеспечение и технологии программирования
- •Булева алгебра
- •Логические выражения
- •Построение таблиц
- •Основные законы логики.
- •Раздел 3. Технические и программные средства реализации информационных процессов
- •Виды программ
- •Операционные системы: Основные принципы и приемы работы
- •2. Операционная система: стандартные программы
- •Программное обеспечение и технологии программирования
- •Архитектура пк
- •Логическое устройство компьютера
- •Основные блоки пк
- •Устройство пк
- •Раздел 4. Алгоритмизация и программирование
- •Основные понятия алгоритмизации.
- •Свойства алгоритма:
- •Виды алгоритмов
- •Классификации языков программирования
- •Раздел 5. Модели решения функциональных и вычислительных задач
- •1. Этапы решения задач
- •2. Виды методов
- •Модели решения функциональных и вычислительных задач: понятия и назначение
- •Раздел 6. Локальные и глобальные сети эвм
- •Каналы передачи данных по компьютерным сетям
- •2. Уровни взаимодействия компьютеров и протоколы передачи данных в сетях.
- •3. Топология сети
- •Раздел 7. Основы защиты информации и сведений, составляющих государственную тайну
- •Общие сведения об информации, составляющей государственную тайну
- •Методы защиты информации
- •Список литературы
Министерство спорта, туризма и молодежной политики РФ
Кубанский государственный университет физической культуры, спорта и туризма
Кафедра биомеханики и информатики
Утверждено на заседании кафедры
биомеханики и информатики
протокол №___от «__»____201_г.
Зав. кафедрой, профессор
_________________В.В. Лысенко
Конспекты лекций по дисциплине
«Информатика»
для специальности 032102 “Физическая культура для лиц с отклонениями в состоянии здоровья (адаптивная физическая культура)”, специализации «Адаптивное физическое воспитание»
Лекции разработала
ст. преподаватель
Толстых Ольга Сергеевна
Краснодар - 2010
Раздел 1. Понятие информации, общая характеристика процессов передачи обработки и накопления информации
Лекция 1. Информация и информационные процессы
План:
1.1. Понятие информации, общая характеристика процессов передачи обработки и накопления информации.
1.2. Информатика как научно-учебная дисциплина.
1.3. Краткая история развития вычислительной техники.
Понятие об информации, общая характеристика процессов передачи обработки и накопления информации
Информация – набор символов, графических образов или звуковых сигналов, несущих определенную смысловую нагрузку.
Информационные процессы – это процессы сбора, обработки, накопления, хранения, поиска и передачи информации.
Основными этапами (фазами) обращения информации являются:
сбор (восприятие) информации;
подготовка (преобразование) информации;
передача информации;
обработка (преобразование) информации;
хранение информации;
отображение (воспроизведение) информации.
Информационная система – организационно- упорядоченная совокупность информационных объектов и информационных технологий, реализующих информационные процессы.
Информационный объект – это информация, сохраненная и представленная каким-либо способом.
Способы передачи информации.
Сигнал (англ. signal, от лат. signum – знак) – это знак, физический процесс или явление, несущие сообщение о каком-либо событии, состоянии объекта либо передающие команды управления, оповещения и т. д.
Данными называют факты, сведения, представленные в формализованном виде (закодированные), занесенные на те или иные носители и допускающие обработку с помощью специальных технических средств (в первую очередь ЭВМ.
Свойства информации.
актуальность (сохраняет свою ценность с течением времени);
полнота (ее достаточно для понимания и принятия решений);
адекватность (ее содержание соответствует состоянию объекта);
достоверность (степень соответствия истине);
канал связи
ИСТОЧНИК ----------->ПРИЁМНИК
Виды информации.
Информация может поступать в аналоговом (непрерывном) виде или дискретно (в виде последовательности отдельных сигналов).
Информатика как научно-учебная дисциплина.
Информатика – наука, изучающая способы автоматизированного создания, хранения, обработки, использования, передачи и защиты информации.
Структура информатики
Информатика=ИНФОРМация+автоМАТИКА
Электронно-вычислительная машина (ЭВМ) или компьютер (англ.
Computer - вычислитель) – устройство для автоматизированной обработки информации.
Информационная технология — это совокупность методов и устройств, используемых людьми для обработки информации.
Краткая история развития вычислительной техники
1823 г. – английский учёный Чарльз Бэббидж разработал проект «Разностной машины» – прообраз современной программно-управляемой машины. С 1833 по 1871 г. он предложил схему «Аналитической машины», чтобы «заменить человека в одной из самых медленных операций его ума». Эта машина имела 4 основные части: «склад» для хранения чисел, «мельницу» для операций над ними, устройство управления и устройства ввода/вывода.
1847 г. – английский математик-самоучка Джордж Буль в работе «Математический анализ логики» изложил основы булевой алгебры. Д. Буль считается основоположником современной математической логики.
1928 г. – американский математик Дж. Нейман сформулировал основы теории игр, ныне применяемых в практике машинного моделирования.
Он сформулировал основные принципы, лежащие в основе архитектуры вычислительной машины.
1936 г. – английский математик А. Тьюринг выдвинул идею абстрактной вычислительной машины «Машина Тьюринга» – гипотетический универсальный преобразователь дискретной информации, теоретическая вычислительная система.
1938 г. – американский математик и инженер Клод Шеннон связал Булеву алгебру (аппарат математической логики), двоичную систему кодирования и релейно-контактные переключательные схемы, заложив основы будущих ЭВМ.
1946 г. – американский инженер-электронщик Д.П. Эккерт и физик Д.У. Моучли сконструировали в Пенсильванском университете первую ЭВМ «ENIAC» (Electronic Numerical Integrator and Computer). Она состояла из 20 тыс. электронных ламп.
1947 – 1948 гг. – академик С.А. Лебедев в Институте электроники АН УССР начинает работу по созданию МЭСМ (Малой Электронной Счётной Машины).
1952 г. – закончена разработка БЭСМ (Большой Электронной Счётной Машины) с быстродействием около 10 тыс. операций в секунду под руководством Сергея Алексеевича Лебедева.
Лекция 2. Измерение информации
План:
2.1. Кодирование информации.
2.2. Единицы измерения информации.
2.3 Кодирование графической информации
