- •Раздел 1. Теоретические основы информатики. Сбор, хранение, поиск, переработка, преобразование, распространение информации в медицинских и биологических системах.
- •Двоичное кодирование чисел. Перевод чисел из двоичной системы счисления в десятичную и обратно.
- •Преимущества использования восьмеричной и шестнадцатеричной систем кодирования.
- •Принципы реализации двоичных арифметических операций: сложение, вычитание, умножение.
- •Алгебра логики. Элементарные логические операции. Таблицы истинности.
- •Основные законы алгебры логики.
- •Раздел 2. Аппаратное и программное обеспечение компьютеров и компьютерных сетей.
- •При проводном соединении в качестве проводника сигнала используется три вида кабеля:
- •Основные функции операционных систем пк. История развития операционных систем.
- •Основные вехи в развитии пользовательских интерфейсов операционных систем пк (от ms dos до Windows 8).
- •Принципы организации файловой системы в накопителях информации пк. Определения файлов,папок (каталогов), дерева папок, полного имени файла. Программа «Проводник».
- •Свойства файлов и папок. Основные операции с файлами и папками
- •Раздел 3. Базовые технологии преобразования информации в компьютерных системах. Текстовые, графические, табличные процессоры, системы управления базами данных.
- •Раздел 4. Использование информационных компьютерных систем в медицине и здравоохранении. Автоматизированные рабочие места специалистов, медицинские базы данных, диагностические и экспертные системы.
- •Раздел 5. Методы компьютерной реализации статистического анализа медицинских данных, статистической проверки гипотез и анализ взаимосвязей в медико-биологических системах.
- •Формы, виды и способы статистического исследования
- •Теоретические основы выборочных статистических исследований в доказательной медицине. Понятие генеральной совокупности, выборки, репрезентативности выборки.
- •Парная линейная регрессия, коэффициенты регрессии, способы расчета и графического представления.
- •Парная регрессия
- •Раздел 6. Основы организации и применения компьютерных сетей. Поиск информации и коммуникации в сети Интернет. Методы защиты информации в компьютерных сетях.
- •Системы с открытым ключом
- •Управление ключами
- •Генерация ключей
- •Распределение ключей
Раздел 1. Теоретические основы информатики. Сбор, хранение, поиск, переработка, преобразование, распространение информации в медицинских и биологических системах.
(1.1) Системный подход в изучении медицины. Понятие системы. Свойства системы. Примеры медицинских систем.
Система – совокупность взаимосвязанных взаимообусловленных элементов, обладающую свойствами, не присущими каждому элементу в отдельности. Элементы системы являются, в свою очередь, подсистемами и могут рассматриваться как самостоятельные системы низшего уровня. Одно из основных свойств системы- это ориентация всех подсистем на достижение единой цели. Св-ва системы: Целостность системы означает, что каждый элемент системы вносит вклад в реализацию целевой функции системы.
Организованность — сложное свойство систем, заключающиеся в наличие структуры и функционирования (поведения). Непременной принадлежностью систем является их компоненты, именно те структурные образования, из которых состоит целое и без чего оно не возможно.
Функциональность — это проявление определенных свойств (функций) при взаимодействии с внешней средой. Здесь же определяется цель (назначение системы) как желаемый конечный результат.
Структурность — это упорядоченность системы, определенный набор и расположение элементов со связями между ними. Между функцией и структурой системы существует взаимосвязь, как между философскими категориями содержанием и формой. Изменение содержания (функций) влечет за собой изменение формы (структуры), но и наоборот.
Надежность — свойство сохранения структуры систем, несмотря на гибель отдельных ее элементов с помощью их замены или дублирования, а живучесть — как активное подавление вредных качеств. Таким образом, надежность является более пассивной формой, чем живучесть.
Адаптируемость — свойство изменять поведение или структуру с целью сохранения, улучшения или приобретение новых качеств в условиях изменения внешней среды. Обязательным условием возможности адаптации является наличие обратных связей.
Иерархичность — каждый элемент системы может рассматриваться как система; сама система также может рассматриваться как элемент некоторой надсистемы (суперсистемы).
Эмерджентность — степень несводимости свойств системы к свойствам элементов, из которых она состоит.
Эмерджентность — свойство систем, обусловливающее появление новых свойств и качеств, не присущих элементам, входящих в состав системы.
Медицинские информационные системы (МИСы). По назначению эти системы делятся на три группы: 1) системы, основной функцией которых является накопление данных и информации (Необходимость накоплениях больших объемов профессионально ценной информации - одна из проблем, с которой имеют дело врачи. Компьютер выступает как средство надежного хранения профессиональных знаний, обеспечивающее доступный и быстрый поиск необходимых сведений. Помимо этого, в память компьютера может быть заложена информация, классифицированная по объектовому признаку ( материально - техническая база, лекарственные средства), по видам информации (экономическая, научная, нормативно - правовая и др.), или же по ее характеру (первичная, вторичная, оперативная, обзорно - аналитическая, экспертная, прогностическая и). Хранение, обработка и использование информации является основой создания информационной среды); 2) диагностические и консультирующие системы (проблема принятия решений в сложных и спорных ситуациях. К примеру, специалист-эксперт может одновременно обдумывать до семи гипотез. Машина-эксперт позволяет рассмотреть все возникшие варианты); 3) системы, обеспечивающие медицинское обслуживание (используя современные вычислительные средства, определяются косвенными методами важные физиологические функции, такие как сердечный индекс, плотность печени, объем и положение кисты и др. К таким приборам относятся эхокардиографы, гамма - камеры. Возможные погрешности измерений (вычислений) этих функций - приблизительно 15 % данных, получаемых с помощью любой из мониторинго компьютерных систем).
(1.2) Медицинская система как управляющая система. Принцип обратной связи в управляющих системах. Место методов и средств информатики в медицинской управляющей системе.
Под управляющими системами понимаются не только технические, но и любые биологические, административные и социальные системы. Каждая такая систем представляет собой множество взаимосвязанных объектов(элементов системы), способных воспринимать, запоминать и перерабатывать информацию, а также обмениваться ею.
Тео́рия управле́ния — наука о принципах и методах управления различными системами, процессами и объектами. Основами теории управления являются кибернетика (наука об общих закономерностях процессов управления и передачи информации в различных системах, будь то машины, живые организмы или общество) и теория информации.
Процесс управления можно разделить на несколько этапов:
Сбор и обработка информации.
Анализ, систематизация, синтез.
Постановка на этой основе целей. Выбор метода управления, прогноз.
Внедрение выбранного метода управления.
Оценка эффективности выбранного метода управления (обратная связь).
Конечной целью теории управления является универсализация, а значит, согласованность, оптимизация и наибольшая эффективность функционирования систем.
Методы управления, рассматриваемые теорией управления техническими системами и другими объектами, базируются на трёх фундаментальных принципах:
Принцип разомкнутого (программного) управления,
Принцип компенсации (управление по возмущениям)
Принцип обратной связи.
Управление можно разделить на два вида:
стихийный: воздействие происходит в результате взаимодействия субъектов (синергетическое управление);
сознательный: планомерное воздействие объекта (иерархическое управление).
При иерархическом управлении цель функционирования системы задается её надсистемой.
Медицинская кибернетика является научным направлением, связанным с использованием идей, методов и технических средств кибернетики в медицине и здравоохранении.
Условно медицинскую кибернетику можно представить следующими группами:
Вычислительная диагностика заболеваний
Эта часть связана с использованием вычислительной техники при обработке информации, поступающей с биологического объекта с целью постановки диагноза. Первым шагом является разработка методик формального описания состояния здоровья пациента, проведение тщательного анализа по уточнению клинических параметров и признаков, используемых в диагностике. Здесь имеют главное значение те признаки, которые несут количественные оценки. Кроме количественного выражения физиологических, биохимических и других характеристик больного для вычислительной диагностики необходимы сведения о частоте клинических синдромов (из априорных данных) и диагностических признаков об их классификации, оценке диагностической эффективности и т. п.
Автоматизированные системы управления и возможности применения их для организации здравоохранения.
Здесь преследуется цель создания отраслевых автоматизированных систем (ОСАУ). Такие системы создаются для такой важной отрасли как «здравоохранение». Особенности ОСАУ в здравоохранении является то, что она должна включать в себя как блок управления, так и другие элементы: профилактику, лечение (с диагностикой), медицинскую науку, кадры, материальное обеспечение. В первоочередные задачи ОСАУ «Здравоохранение» входят автоматизация процессов сбора и анализа статистической информации по основным направлениям медицинской деятельности и оптимизация некоторых процессов управления.
(1.3) Понятие информационной энтропии.
Энтропия – мера неопределенности состояния или поведения наблюдаемой(управляемой) системы; мера неопределенности в выборе управляющих решений.
Информацио́нная энтропи́я — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.
Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения. Является количеством, определённым в контексте вероятностной модели для источника данных
Степень энтропии источника данных означает среднее число битов на элемент данных, требуемых для её зашифровки без потери информации, при оптимальном кодировании
(1.4) Представление об объективной и субъективной информации, возможные определения понятия информации. Атрибуты информации.
Объективная (первичная) информация — свойство материальных объектов и явлений (процессов) порождать многообразие состояний, которые посредством взаимодействий передаются другим объектам и запечатлеваются в их структуре Субъективная (вторичная) информация – смысловое содержание объективной информации об объектах и процессах материального мира, сформированное сознанием человека с помощью смысловых образов (слов, изображений и ощущений) и зафиксированное на каком-либо материальном носителе
Информация – это сведения об окружающем мире и протекающих в нем процессах, увеличивающие знания и уменьшающие энтропию (незнание) Знания – осознанные и запомненные свойства предметов, явлений и связей между ними, а также способы поведения (выбора решений) для достижения нужных результатов
Информация обладает рядом фундаментальных свойств (атрибутов): новизна актуальность достоверность объективность полнота ценность преобразуемость и др.
Информация —совокупность данных, зафиксированных на материальном носителе, сохранённых и распространённых во времени и пространстве,это осознанные сведения об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования
Основные виды информации по ее форме представления, способам ее кодирования и хранения это:
графическая или изобразительная (рисунок, фотография)
звуковая
текстовая
числовая
видеоинформация — способ сохранения «живых» картин окружающего мира, появившийся с изобретением кино.
Атрибуты информации:
Объективность информации. Информация объективна, если она не зависит от методов ее фиксации, чьего-либо мнения, суждения. Пример. Сообщение «На улице тепло» несет субъективную информацию, а сообщение «На улице 22°С» – объективную, но с точностью, зависящей от погрешности средства измерения. Объективную информацию можно получить с помощью исправных датчиков, измерительных приборов.
Достоверность информации. Информация достоверна, если она отражает истинное положение дел.
Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению.
Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п.
Актуальность информации – важность для настоящего времени, злободневность, насущность. Только вовремя полученная информация может быть полезна.
Полезность (ценность) информации. Полезность может быть оценена применительно к нуждам конкретных ее потребителей и оценивается по тем задачам, которые можно решить с ее помощью.
(1.5) Основные понятия базовых информационных процессов: хранения, передачи, обработки информации.
Общение является одним из важнейших условий существования человеческого общества.
Общение включает в себя следующие информационные процессы:хранения, передачи, обработки информации.
Хранение информации осуществляется с помощью её переноса на некоторые материальные носители. Семантическая информация, зафиксированная на материальном носителе для хранения, называется документом.
Хранить информацию человечество научилось очень давно. В наиболее древних формах хранения информации использовалось расположение предметов — раковин и камней на песке, узелков на верёвке. Существенным развитием этих способов явилась письменность — графическое изображение символов на камне, глине, папирусе, бумаге. Огромное значение в развитии этого направления имело изобретение книгопечатания. За свою историю человечество накопило огромный объём информации в библиотеках, архивах, периодических изданиях и других письменных документах.
В настоящее время особое значение получило хранение информации в виде последовательностей двоичных символов. Для реализации этих методов используются разнообразные запоминающие устройства. Они являются центральным звеном систем хранения информации. Кроме них в таких системах используются средства поиска информации (поисковая система), средства получения справок (информационно-справочные системы) и средства отображения информации (устройство вывода). Сформированные по назначению информации такие информационные системы образуют базы данных, банки данных и базы знаний.
Хранение информации осуществляется с помощью её переноса на некоторые материальные носители. Семантическая информация, зафиксированная на материальном носителе для хранения, называется документом.
Хранить информацию человечество научилось очень давно. В наиболее древних формах хранения информации использовалось расположение предметов — раковин и камней на песке, узелков на верёвке. Существенным развитием этих способов явилась письменность — графическое изображение символов на камне, глине, папирусе, бумаге. Огромное значение в развитии этого направления имело изобретение книгопечатания. За свою историю человечество накопило огромный объём информации в библиотеках, архивах, периодических изданиях и других письменных документах.
В настоящее время особое значение получило хранение информации в виде последовательностей двоичных символов. Для реализации этих методов используются разнообразные запоминающие устройства. Они являются центральным звеном систем хранения информации. Кроме них в таких системах используются средства поиска информации (поисковая система), средства получения справок (информационно-справочные системы) и средства отображения информации (устройство вывода). Сформированные по назначению информации такие информационные системы образуют базы данных, банки данных и базы знаний.
Поскольку информация нематериальна, её обработка заключается в различных преобразованиях. К процессам обработки можно отнести любые переносы информации с носителя на другой носитель. Информация, предназначенная для обработки, называется данными.
Основным видом обработки первичной информации, полученной различными приборами, является преобразование в форму, обеспечивающую её восприятие органами чувств человека. Так, фотоснимки космоса, полученные в рентгеновских лучах, преобразуются в обычные цветные фотографии с использованием специальных преобразователей спектра и фотоматериалов. Приборы ночного видения преобразуют изображение, получаемое в инфракрасных (тепловых) лучах, в изображение в видимом диапазоне. Для некоторых задач связи и управления необходимо преобразование аналоговой информации в дискретную и наоборот. Для этого используются аналого-цифровые и цифро-аналоговые преобразователи сигналов.
Важнейшим видом обработки семантической информации является определение смысла (содержания), заключающегося в некотором сообщении. В отличие от первичной семантическая информация не имеет статистических характеристик, то есть количественной меры — смысл либо есть, либо его нет. А сколько его, если он есть — установить невозможно. Содержащийся в сообщении смысл описывается на искусственном языке, отражающем смысловые связи между словами исходного текста. Словарь такого языка, называемый тезаурусом, находится в приемнике сообщения. Смысл слов и словосочетаний сообщения определяется путем их отнесения к определенным группам слов или словосочетаний, смысл которых уже установлен. Тезаурус, таким образом, позволяет установить смысл сообщения и, одновременно, пополняется новыми смысловыми понятиями. Описанный вид обработки информации применяется в информационно-поисковых системах и системах машинного перевода.
Одним из широко распространенных видов обработки информации является решение вычислительных задач и задач автоматического управления с помощью вычислительных машин.
Обработка информации всегда производится с некоторой целью. Для её достижения должен быть известен порядок действий над информацией, приводящий к заданной цели. Такой порядок действий называется алгоритмом. Кроме самого алгоритма необходимо также некоторое устройство, реализующее этот алгоритм. В научных теориях такое устройство называется автоматом.
Следует отметить как важнейшую особенность информации тот факт, что в силу несимметричности информационного взаимодействия при обработке информации возникает новая информация, а исходная информация не теряется.
Информационный процесс — процесс получения, создания, сбора, обработки, накопления, хранения, поиска, передачи, распространения и использования информации.
(1.6) Передача информации посредством сигналов. Виды сигналов. Дискретизация сигналов.
Информация может существовать в виде световых и звуковых сигналов.
В технических устройствах сигналы делятся на:
1)непрерывные(аналоговые)-например сигнал от микрофона к динамику, передача речи по телефонным проводам.
2)дискретные- сигнал может принимать лишь конечное число значений.
Дискретизация - преобразование непрерывной функции в дискретную. При передаче изображения используют для преобразования непрерывного аналогового сигнала в дискретный или дискретно-непрерывный сигнал. Обратный процесс называется восстановлением. При дискретизации только по времени, непрерывный аналоговый сигнал заменяется последовательностью отсчётов, величина которых может быть равна значению сигнала в данный момент времени. Возможность точного воспроизведения такого представления зависит от интервала времени между отсчётами Δt. Согласно теореме Котельникова:
где - наибольшая частота спектра сигнала.
Сигнал – любой физический процесс, параметры которого изменяются в соответствии с передаваемым сообщением. Аналоговый (непрерывный) сигнал может принимать бесконечной число значений в любом заданном диапазоне изменения. Дискретный сигнал может принимать ограниченное число значений в заданном диапазоне изменения. Дискретизация – разбиение аналогового сигнала на последовательность отдельных временных отсчетов и присвоение каждому отсчету конкретного значения в форме кода.
(1.7) Кодирование информации. Алфавит. Слово. Словарь. Двоичное кодирование.
Обычно сообщения передаются и регистрируются с помощью некоторой последовательности символов - знаков. Алфавит языка интерпретации сообщений – конечное множество входящих в него знаков, обычно задается их прямым перечислением. Конечная последовательность знаков алфавита называется словом в алфавите. Количество знаков в слове определяет длину слова. Множество различных допустимых слов образует словарный запас (словарь) алфавита. Любой алфавит имеет упорядоченный вид, знаки расположены последовательно в строгом порядке, таким образом, в словаре обеспечивается упорядочивание всех слов по алфавиту.
Кодирование информации обычно применяется для преобразования сообщений из формы, удобной для непосредственного использования, в форму, удобную для передачи, хранения или автоматической переработки: Символы алфавита X ----> Символы алфавита Y Кодирование обычно приводит к переходу на небуквенный алфавит, который часто и называется кодом. Одно и то же сообщение может быть без потери его смысла закодировано разными кодами. В компьютерах применяется двоичный код с набором из двух символов: {0, 1}
Кодирование информации обычно применяется для преобразования сообщений из формы, удобной для непосредственного использования, в форму, удобную для передачи, хранения или автоматической переработки: Символы алфавита X ----> Символы алфавита Y Кодирование обычно приводит к переходу на небуквенный алфавит, который часто и называется кодом. Одно и то же сообщение может быть без потери его смысла закодировано разными кодами. В компьютерах применяется двоичный код с набором из двух символов: {0, 1}
Обычно сообщения передаются и регистрируются с помощью некоторой последовательности символов - знаков. Алфавит языка интерпретации сообщений – конечное множество входящих в него знаков, обычно задается их прямым перечислением. Конечная последовательность знаков алфавита называется словом в алфавите. Количество знаков в слове определяет длину слова. Для кодирования текстов используются различные таблицы перекодировки. Таблица перекодировки - таблица, содержащая упорядоченный некоторым образом перечень кодируемых символов, в соответствии с которой происходит преобразование символа в его двоичный код и обратно.
В качестве длины кода для кодирования символов было выбрано 8 бит или 1 байт. Поэтому одному символу текста соответствует один байт памяти.
Различных комбинаций из 0 и 1 при длине кода 8 бит может быть 28 = 256, поэтому с помощью одной таблицы перекодировки можно закодировать не более 256 символов. При длине кода в 2 байта (16 бит) можно закодировать 65536 символов. Для того чтобы закодировать один символ используют количество информации равное 1 байту, т. е. I = 1 байт = 8 бит. При помощи формулы, которая связывает между собой количество возможных событий К и количество информации I, можно вычислить сколько различных символов можно закодировать К = 2I = 28 = 256,
т. е. для представления текстовой информации можно использовать алфавит мощностью 256 символов.
Суть кодирования заключается в том, что каждому символу ставят в соответствие двоичный код от 00000000 до 11111111 или соответствующий ему десятичный код от 0 до 255. Одному и тому же двоичному коду ставится в соответствие различные символы.
(1.8) Семантический аспект понятия информации.
Семантический аспект – характеристика информации с точки зрения ее смысла. Для разумного существа информация – нематериальный смысл, извлекаемый из сообщения на основе накопленных знаний. Одно и то же сообщение может иметь различное представление, например, написано на разных языках. Переход от представления к значению (смыслу) сообщения называется интерпретацией. Для осмысленного использования информации необходимо знание правил интерпретации сообщений - используемого языка или способа кодирования.
Семантический аспект – характеристика информации с точки зрения ее смысла. Для разумного существа информация – нематериальный смысл, извлекаемый из сообщения на основе накопленных знаний. Одно и то же сообщение может иметь различное представление, например, написано на разных языках. Переход от представления к значению (смыслу) сообщения называется интерпретацией. Для осмысленного использования информации необходимо знание правил интерпретации сообщений - используемого языка или способа кодирования. Семантический аспект передаёт смысловое содержание информации и соотносит её с ранее имевшейся информацией. Смысловые связи между словами и другими элементами языка отражает словарь.
Он состоит из двух частей: списка слов и устойчивых словосочетаний, сгруппированных по смыслу, и некоторого ключа (алфавит), позволяющего расположить слова в определённом порядке.
При получении информации словарь может быть изменён, и степень этого изменения характеризует количество воспроизводимой информации.
Обычно сообщения передаются и регистрируются с помощью некоторой последовательности символов - знаков. Алфавит языка интерпретации сообщений – конечное множество входящих в него знаков, обычно задается их прямым перечислением. Конечная последовательность знаков алфавита называется словом в алфавите. Количество знаков в слове определяет длину слова. Множество различных допустимых слов образует словарный запас (словарь) алфавита. Любой алфавит имеет упорядоченный вид, знаки расположены последовательно в строгом порядке, таким образом, в словаре обеспечивается упорядочивание всех слов по алфавиту.
(1.9) Количество информации. Мера количества информации и ее свойства. Формула Хартли.
Количество информации – число, адекватно характеризующее величину разнообразия (набор состояний, альтернатив и т.д.) в оцениваемой системе. Мера информации – формула, критерий оценки количества информации. Мера информации обычно задана некоторой неотрицательной функцией, определенной на множестве событий и являющейся аддитивной, то есть мера конечного объединения событий (множеств) равна сумме мер каждого события
Измерение количества информации Формула Хартли (1928): H = log2 N H – количество информации N – количество возможных равновероятных альтернатив
1 бит - количество информации, которое соответствует сообщению о выборе одной из 2-х равновероятных альтернатив: истина ложь да нет 1 0
(1.10) Формула Шеннона для оценки количества информации и следствия из нее.
Формула Шеннона (1948): H = - Sumn(рi log2 рi) H – среднее количество информации при многократном выборе n – количество альтернатив рi – вероятности альтернатив i = 1….n
H = - log2 р H – количество информации при однократном выборе р – вероятность выбранной альтернативы
В двоичном коде каждый двоичный символ несет 1 бит информации. Кодовое слово длиной в H двоичных символов несет H бит информации (при условии равной вероятности появления двоичных символов). Общее количество разных кодовых слов длиной H бит равно: N = 2^H H=8 N = 2^8 = 256 1 байт = 8 бит
1 байт - количество информации, которое соответствует сообщению о выборе одной из 256 равновероятных альтернатив
Кодовая таблица Unicode - используется 2 байта (16 бит) на каждый символ Количество возможных символов равно 216, примерно 64000 символов
(1.11) Единицы измерения информации. Связь между длиной двоичного кода и количеством возможных кодируемых альтернатив. Варианты кодирования текстовых символов.
Для информации существуют свои единицы измерения информации. Если рассматривать сообщения информации как последовательность знаков, то их можно представлять битами, а измерять в байтах, килобайтах, мегабайтах, гигабайтах, терабайтах и петабайтах.
Бит
Единицей измерения количества информации является бит –это наименьшая (элементарная) единица.
1бит – это количество информации, содержащейся в сообщении, которое вдвое уменьшает неопределенность знаний о чем-либо.
Байт
Байт – основная единица измерения количества информации.
Байтом называется последовательность из 8 битов. 1 символ – это 1 байт.
Производные единицы измерения количества информации
1 байт=8 битов
1 килобайт (Кб)=1024 байта =210 байтов
1 мегабайт (Мб)=1024 килобайта =210 килобайтов=220 байтов
1 гигабайт (Гб)=1024 мегабайта =210 мегабайтов=230 байтов
1 терабайт (Гб)=1024 гигабайта =210 гигабайтов=240 байтов
приставка КИЛО в информатике – это не 1000, а 1024, то есть 210.
1 байт - количество информации, которое соответствует сообщению о выборе одной из 256 равновероятных альтернатив
Для представления текстовой информации достаточно 256 различных символов. N = 2I, 256 = 2I , 2^8 = 2I ,I = 8 битов Для кодирования каждого знака требуется количество информации, равное 8 битам. Для представления текста в памяти компьютера необходимо представить его в двоичной знаковой системе. Каждому знаку необходимо поставить в соответствие уникальный двоичный код в интервале от 00000000 до 11111111 (в десятичном коде от 0 до 255)
Для представления символов и соответствующих им кодов используется кодовая таблица. В качестве стандарта во всем мире принята таблица ASCII (American Standard Code for Information Interchange – Американский стандартный код для обмена информацией). Условно таблица разделена на части:
от 0 до 32 коды соответствуют операциям;
с 33 по 127 соответствуют символам латинского алфавита, цифрам, знакам арифметических операций и знакам препинания;
со 128 по 255 являются национальными.
знаков В настоящее время существуют пять различных кодировок для русских букв (Windows, MS-DOS, КОИ-8, Mac, ISO), поэтому тексты созданные в одной кодировке не будут правильно отображаться в другой. В последние годы широкое распространение получил новый международный стандарт кодирования текстовых символов Unicode, который отводит на каждый символ 2 байта (16 битов), что позволило закодировать многие алфавиты в одной таблице. N = 2I, N = 216 , N = 65536
(1.12) Единицы измерения информационной емкости устройств памяти. Пропускная способность каналов передачи информации.
Информационная емкость устройств памяти ПК (объем памяти) оцениваются следующими единицами:
1 кбайт = 1024 байт (210 байт)
1 Мбайт = 1024 кбайт (220 байт)
1 Гбайт = 1024 Мбайт (230 байт)
1 Тбайт = 1024 Гбайт (240 байт)
Пропускная способность — метрическая характеристика, показывающая соотношение предельного количества единиц информации, проходящих через канал, систему, узел в единицу времени. Кбит/сек, Мбит/сек, МБ/сек
