- •Часть 1. Компьютерная графика и web-дизайн. Теоретические основы.
- •Цветовая модель rgb
- •Цветовая модель cmyk
- •Цветовая модель lab
- •Структура гиперссылки
- •Категории гиперссылок
- •Формы гиперссылок
- •Дизайн гиперссылок
- •Принципы юзабилити
- •Назначение навигации
- •Глобальная навигация
- •Нарушения навигации
- •Организация навигации при помощи закладок
- •О блако тегов
- •1. Сбор страниц
- •2. Индексирование страниц
- •Проблемы поисковых систем
- •Создание системы поиска
- •Интерфейс поиска
- •Дизайн страницы результатов
- •Отрицательный результат поиска
- •Принципы разработки отдельных страниц Главная страница
- •Splash-страница
- •Специальные навигационные страницы
- •Страницы для обратной связи
- •Выходные страницы
- •Страницы с фиксированными размерами
- •Масштабирование по горизонтали
- •Введение в web-типографику
- •Правила составления текстов для web
- •Главные правила текстового дизайна
- •Создание логотипа
- •Выбор цветовой гаммы сайта
- •2. Эксплуатационный опрос
- •3. Определение технических подробностей
- •4.Изучение аудитории
- •5.Анализ отрасли
- •6. Составление первичной документации
- •1. Структурирование сайта с точки зрения контента
- •Основные ошибки клиента
- •2. Создание карты сайта
- •3. Установка соглашений об именовании
- •1. Разработка концепции дизайна
- •2. Выверка
- •3. Создание графических шаблонов и руководства по стилю оформления
- •1. Подготовка к производству
- •2. Заключение договора о хостинге
- •3. Формирование файловой структуры
- •4. Компоновка страниц
- •5. Контроль качества
- •1. Передача сайта
- •2. Запуск
- •3. Сопровождение
- •Баннер с позиции рекламодателя
- •Баннер с позиции дизайнера
- •Часть 2. Разработка web-узлов. Практическое задание.
- •1. Запись данных: insert
- •2. Чтение данных: select
- •3. Обновление данных: update
- •4. Удаление данных: delete
- •Описание
- •Синтаксис
- •Описание
- •Синтаксис
- •Синтаксис
- •Аргументы
- •Описание, примеры
- •Связь между окнами
- •Строка параметров
- •Основные кроссбраузерные параметры
- •Заметки
- •Конструкция включений require
- •Конструкция включений include
- •Часть 3. Верстка и допечатный процесс.
- •1. Каждая статья должна иметь прямоугольную форму и состоять из прямоугольных блоков
- •2. Обтекаемая текстом фотография должна занимать по ширине целое число колонок
- •3. Колонку текста нельзя прерывать элементами графического дизайна
- •4. При вертикальной верстке элементы статьи должны располагаться в строгом порядке: 1) фотография, 2) подпись к фотографии, 3) заголовок, 4) текст
- •5. Из нескольких иллюстраций к статье следует выбирать одну ведущую
- •1. Материалы должны быть явно отделены друг от друга.
- •2. Материалы должны выстраиваться в иерархию.
- •3. Заголовки соседних материалов не должны слипаться.
- •4. Следует соблюдать иерархию фотоматериалов.
- •5. Полоса должна быть визуально сбалансирована.
- •6. Больше трёх-четырёх гарнитур на полосе использовать нельзя.
- •Часть 4. Операционные системы и компьютерные сети. Вопрос №1. Диапазоны ip-адресов локальных сетей, их назначение
- •Вопрос №2. Прямые и обратные dns-запросы, структура домена .In-addr.Apra
- •Вопрос №3. Напишите консольные команды и их параметры, позволяющие запускать, останавливать и перезапускать сервис Apache, а также просматривать прослушиваемые сервисами порты локального хоста
- •Вопрос №5. Напишите инструкции файла настроек Apache, запрещающие в текущем каталоге доступ ко всем файлам с расширением log отовсюду, кроме локального хоста
- •Вопрос №6. Напишите инструкции файла настроек Apache, разрешающие доступ в текущий каталог только прошедшим аутентификацию пользователям
- •Вопрос №7. Напишите инструкции файла глобальных настроек Apache, организующие виртуальный хост Вопрос №8. Опишите назначение поставляемых в пакете веб-сервера Apache утилит htpasswd, ab
1. Сбор страниц
Поисковый робот — это программа, осуществляющая автоматическое сканирование Web-ресурсов на предмет появления новых, модификации существующих и удаления старых Web ресурсов. Процесс сбора страниц роботы начинают с определенного количества отправных URL и продолжают его, следуя по ссылкам с этих документов. Отправные URL-адреса либо подаются людьми, претендующими на регистрацию в поисковой системе, либо формируются из доменных имен, перечисленных в соответствующем реестре.
2. Индексирование страниц
На данном этапе роботы просматривают различные компоненты страницы с целью определить ее назначение. Анализируется заголовок страницы (тег <TITLE>), содержимое служебных тегов <META> (с помощью которых автор страницы может самостоятельно определить для нее набор ключевых слов), заголовки разделов документа, комментарии к рисункам (атрибут alt тега <IMG>) и собственно текст документа.
Не всякое содержимое страницы имеет значение для поисковой системы. Например, существуют стоп-слова — это те слова, которые система игнорирует, поскольку они считаются слишком распространенными, чтобы нести информацию о назначении страницы (например, артикль the в английском языке).
Когда страница проанализирована на предмет наличия всевозможных ключевых слов, она получает определенный рейтинг в сравнении с другими страницами, содержащими те же ключевые слова. Затем поисковый образ страницы, содержащий ее URL и рейтинг ключевых слов, сохраняется в базе данных поисковой системы.
Почти любая поисковая система учитывает при составлении рейтинга число входящих ссылок. Чем больше других сайтов ссылаются на данную страницу, тем больше будет ее рейтинг.
3. Обеспечение механизма поиска
Поисковая страница представляет собой интерфейс, с помощью которого пользователь формулирует запросы, и обычно содержит поле для ввода поискового запроса, а также другие поисковые поля, предназначенные для опытных пользователей, желающих уточнить запрос.
Различают три типа поисковых запросов:
перечень ключевых слов;
перечень ключевых слов, связанных различными логическими операциями (объединение, исключение, последовательность и т.д.);
вопрос на естественном языке.
Современные поисковые системы, как правило, поддерживают запросы первого и второго типа. Естественный язык в качестве языка запросов пока не получил широкого распространения.
Проблемы поисковых систем
Ограничения на индексирование динамических страниц. На крупных специализированных сайтах контент структурирован и распределен по базам данных. Страницы таких сайтов не хранятся на сервере в готовом виде, а генерируются динамически. Поисковые роботы понятия не имеют, какого рода информация может быть введена в поля формы, чтобы получился результат. Поэтому все динамически генерируемые страницы остаются вне поля зрения поисковых систем.
Недобросовестные действия пользователей. С целью привлечь на свою страницу максимум посетителей, разработчики используют различные приемы обмана поисковой системы. В основном эти приемы сводятся к использованию на странице «фальшивых» ключевых слов в служебных тегах.
Индексация страниц с ограниченным доступом. Поисковый робот, перемещающийся по ссылкам внутри ресурса, не способен отличить страницу, предназначенную для бесконечно широкого круга посетителей, от страниц, которые используются, например, только сотрудниками компании. Таким образом, поисковая система может случайно предоставить пользователю доступ к конфиденциальной информации (например, к коммерческой тайне), что служит источником судебных исков против системы.
Существует способ «защитить» свою страницу от индексации поисковым роботом. Для этого используется файл robots.txt, который размещается в корневом каталоге сайта и содержит список запретов всем поисковым системам (или только конкретным) анализировать определенные участки сайта. Аналогичного результата можно добиться с помощью тега:
<META name = “robots” content = “noindex”>
Приведенный тег означает, что данная страница не предназначена для индексирования. Можно так же проинформировать робота, что ему не следует идти по ссылкам с этой страницы:
<META name = “robots” content = “noindex, nofollow”>
6.Организация локального поиска по сайту.
Внутренняя поисковая система сайта
