Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Internet_tehnologii_kurs_lek

.pdf
Скачиваний:
25
Добавлен:
24.03.2015
Размер:
6.93 Mб
Скачать

1.Компьютерные сети и Интернет

Компьютерные сети — это одна из самых важных технологий нашего времени. Количество компьютеров, подключенных к глобальной Сети Интернет, измеряется миллионами (и это число постоянно растет); таким образом, Интернет создает глобальную коммуникацию, позволяя огромному числу пользователей обмениваться информацией и задействовать вычислительные ресурсы друг друга. Кроме того, в настоящее время происходит тесная интеграция Интернета с мобильными и беспроводными технологиями, что значительно расширяет круг его функций. За те 40 лет, которые прошли с момента создания первых сетей, сетевые компьютерные технологии значительно усовершенствовались; однако и на сегодняшний день исследователи отмечают бурное развитие и преобразование сетевых и интернеттехнологий.

2.Общая структура сети Интернет

На сегодняшний день нельзя дать краткого и емкого определения того, что представляет собой сеть интернет. Например, такой ресурс как Википедия (http://ru.wikipedia.org) дает следующее определение Интернет:

Интернет (англ. Internet, от Interconnected Networks — объединѐнные сети,) — глобальная телекоммуникационная сеть информационных и вычислительных ресурсов, которая служит физической основой для Всемирной паутины.

Однако приведенное определение является лишь дословным переводом англоязычного термина. На сегодняшний день при использовании термина «Интернет» обычно понимают не только множество вычислительных устройств, объединенных между собой, но и целую совокупность технологий, реализующих возможность такого объединения, а также и всю информацию доступную любому пользователю посредством такого объединения.

В силу ограниченности и предыдущего определения постараемся, дать максимально подробное описание структуры Интернет, а также технологий используемых для обеспечения ее работы. Составлять такое описание можно двумя путями. Первый вариант заключается в рассмотрении структурных составляющих Интернета, то есть его аппаратного и программного обеспечения. Второй вариант предполагает описание Интернета в терминах сетевой инфраструктуры, предоставляющей услуги распределенным приложениям. Рассмотрим первый вариант.

Как показано на рис. 1, Интернет представляет собой всемирную компьютерную сеть, то есть сеть, связывающую в единое целое миллионы вычислительных устройств. Следует оговориться, что под термином «вычислительное устройство» следует понимать не только настольные персональные компьютеры, но и так называемые серверы, хранящие и передающие информацию, представленную в виде, например, web-страниц или сообщений электронной почты, мобильные устройства PDA (Personal Digital Assistant — персональный цифровой помощник), телевизоры, мобильные компьютеры, автомобили. Все вышеперечисленные устройства в терминологии Интернета называют хостами, или оконечными системами. По оценкам специалистов, к середине 2008 года число хостов, регулярно подключающихся к Интернет, превысило 1,5 млрд., что соответствует примерно четверти населения земного шара, и продолжает с каждым годом продолжает увеличиваться.

Оконечные системы связаны друг с другом линиями связи. Существует большое количество различных линий связи, использующих разнообразные типы физических носителей: коаксиальные, медные, волоконно-оптические кабели, линии радиосвязи и т. д. Линия связи определяет скорость передачи данных. Максимальную скорость передачи данных называют пропускной способностью линии и измеряют в битах в секунду.

Рис. 1. Некоторые составные части Интернета.

Оконечные системы далеко не всегда напрямую соединены между собой единственной физической линией связи. Напротив, типичной является ситуация, когда связь осуществляется с помощью множества последовательных линий, соединяемых специальными коммутирующими устройствами — маршрутизаторами. Маршрутизатор принимает порцию данных, передаваемую по одному из его входных каналов связи, а затем перенаправляет ее в один из своих выходных каналов связи. В терминологии компьютерных сетей передаваемые порции данных называют пакетами. Последовательность каналов связи и маршрутизаторов, через которые пакет проходит в процессе передачи, называется маршрутом, или путем, пакета в сети. Путь пакета заранее не известен и определяется непосредственно в процессе передачи. В Интернете каждой паре оконечных систем не предоставляется выделенный маршрут, а используется технология коммутации пакетов, при этом различные пары оконечных систем могут одновременно пользоваться одним и тем же маршрутом или частью маршрута. Первые сети с коммутацией пакетов, созданные в начале 70-х годов, являются прообразами современного Интернета.

Доступ оконечных систем к Интернету осуществляется при помощи поставщиков услуг Интернета, или Интернет-провайдеров (Internet

1

Service Provider, ISP). Интернет-провайдеры подразделяются на резидентных (например, AOL или MSN), университетских (Университет Стэнфорда) и корпоративных (компания Ford Motors). Интернет-провайдер предоставляет сеть маршрутизаторов и линий связи. Как правило, Интернет-провайдеры предлагают несколько способов подключения оконечных систем к Сети: коммутируемое модемное соединение на скорости 56 Кбит/с, резидентное широкополосное подключение при помощи кабельного модема или цифровой абонентской линии (Digital Subscriber Line, DSL), высокоскоростной доступ через локальную сеть (Local Area Network, LAN), а также беспроводной доступ. Кроме того, Интернет-провайдеры осуществляют прямое подключение к сети web-сайтов. Для того чтобы обеспечить связь между удаленными пользователями, а также предоставить пользователям доступ к информации, хранящейся в Интернете, местные Интернетпровайдеры подключаются к Интернет-провайдерам национального или интернационального звена, таким как UUNet и Sprint. Последние используют высокоскоростные маршрутизаторы, соединенные оптоволоконными кабелями. Каждый из Интернет-провайдеров как нижнего, так и верхнего звеньев является административной единицей, передающей данные по протоколу IP и придерживающейся соглашений об именах и адресах, принятых в Интернете.

Оконечные системы, маршрутизаторы и другие «компоненты» Интернета используют протоколы, осуществляющие управление приемом и передачей информации внутри Интернета. Наиболее важными протоколами в глобальной Сети являются TCP (Transmission Control Protocol — протокол управления передачей) и IP (Internet Protocol — Интернет-протокол). Протокол IP определяет формат пакетов, передающихся между оконечными системами и маршрутизаторами. Стек основных протоколов, использующихся в Интернете, известен под названием TCP/IP.

Кроме общедоступного Интернета существует также множество закрытых (частных) компьютерных сетей, построенных по тому же принципу, что и глобальная Сеть. Как правило, частные сети предназначены для использования внутри различных фирм и организаций; они не могут обмениваться сообщениями с внешней средой, за исключением сообщений, проходящих через так называемые брандмауэры, контролирующие поток сообщений, входящих и выходящих из сети. Подобные сети объединяют под термином интранет.

С точки зрения технологий и развития существование Интернета обеспечивается созданием, проверкой и внедрением Интернетстандартов. Эти стандарты вырабатываются проблемной группой разработок для Интернета (Internet Engineering Task Force, IETF). Документы, создаваемые IETF, носят название RFC (Requests For Comments — предложения для обсуждения). Изначально подобные документы предназначались для разрешения архитектурных проблем, возникавших в сетях-предшественницах Интернета. Со временем ситуация сложилась так, что, формально не обладая статусом стандарта, документы RFC стали стандартами де-факто. В настоящее время эти документы составляются весьма точно и детально, описывая такие протоколы, как TCP, IP, HTTP (для web) и SMTP (для электронной почты). Существует более 3000 различных документов RFC.

3.Интернет с точки зрения обслуживания

Постараемся описать Интернет с точки зрения обслуживания.

Интернет позволяет распределенным приложениям, работающим на оконечных системах, осуществлять обмен данными друг с другом. В число таких приложений входят удаленный терминал, электронная почта, средства навигации в web, средства передачи аудио- и видеоданных, Интернет-телефония, сетевые компьютерные игры, средства однорангового (Peer-to-Peer, P2P) обмена файлами и т. д. Следует подчеркнуть, что web — это не отдельная компьютерная сеть, а одно из множества распределенных приложений, использующих предоставляемые Интернетом службы связи.

Интернет предоставляет своим распределенным приложениям два типа служб: надежную службу с установлением логического соединения и ненадежную службу без установления логического соединения. «В первом приближении» эти понятия означают следующее. Надежная служба с установлением логического соединения гарантирует, что передаваемые отправителем данные будут доставлены получателю полностью (то есть без потерь и искажений) и в исходном порядке. Ненадежная служба без установления логического соединения, напротив, не предоставляет никаких гарантий относительно доставки. Как правило, распределенное приложение способно поддерживать один из двух типов передачи.

В настоящее время Интернет не дает гарантий относительно того, сколько времени понадобится для передачи данных от отправителя к адресату. И, если не считать возможности повышения пропускной способности канала доступа к вашему Интернет-провайдеру, на сегодняшний день вы не можете потребовать в Интернете более высокого качества обслуживания (например, ограничения на длительность задержки), даже если вы готовы доплатить за это. Такую ситуацию многие (особенно американцы) находят странной.

Второе определение Интернета в терминах служб, или услуг, предоставляемых ими распределенным приложениям, является весьма важным для понимания того, что же такое глобальная Сеть. Возвращаясь к первому из двух определений, нельзя не отметить, что постоянно растущие пользовательские потребности обусловливают стремительный рост числа Интернет-приложений и их бурное развитие, что, в свою очередь, стимулирует развитие структурных компонентов сети. Поэтому необходимо помнить, что Интернет представляет собой динамически изменяющуюся инфраструктуру, в которой двигателем развития служат пользовательские приложения. http://willy.nm.ru/articles/inet_hist_toc.html

4.История развития Интернета

Знатоки фантастики утверждают, что в досетевую эпоху никто не описал феномен Интернета сколько-нибудь целостно и убедительно. Конечно, были верные предчувствия, но все они охватывали лишь отдельные аспекты нынешнего (и будущего) Интернета. Виртуальное пространство не знало своего Циолковского, и выход в «киберспейс» произошел для большинства человечества совершенно неожиданно.

Что бы хорошо представлять современное состояние и организацию сети, нужно рассмотреть историю возникновения Интернет. Следующим шагом после создания персональных компьютеров стала идея их объединения с целью обмена информацией между ними. Эта актуальная проблема получила всестороннюю поддержку от правительства США, которое в конце 60-х годов решило оказать финансовую помощь экспериментальной компьютерной сети. Эта сеть была учреждена Агентством Перспективных Исследований США (Defense Advanced Research Project Agency, DARPA) и получила название ARPANET. День рождения этой сети 2 января 1969 года.

События 1961-1970 гг.

Непосредственным предшественником Интернета была компьютерная сеть APRANET (Advanced Research Projects Agency NETwork) Министерства Обороны США, объединившая в 1969 г. несколько американских университетов и компаний, выполнявших военные заказы. Это был эксперимент по пакетной коммутации. Управление перспективных исследований Министерства Обороны США хотело выяснить, возможно ли создание системы управления и связи, в которой контакт между отдельными частями системы будет поддерживаться способом иным, нежели схемная коммутация – физическое соединение устройств связи неразрывной электрической цепью. И здесь как нельзя кстати пришлись некоторые новые тогда академические идеи.

В 1961 году студент Леонард Клейнрок (Leonard Kleinrock) (Нередко именно его называют отцом Интернета) из Массачусетского технологического института (Massachusetts Institute of Technology) опубликовал свою первую статью по пакетной коммутации, в которой излагалась теория пакетной пересылки информации (packet switching theory). Он описал технологию, способную разбивать файлы на куски и передавать их различными путями через сеть.

Такая организация сети давала возможность автоматической маршрутизации данных по включенным в неѐ компьютерам и позволяла

2

одновременно нескольким пользователям работать на одной линии связи.

Ранее сети напоминали железнодорожную одноколейку – пакетная же позволила создать сеть «шоссе» для данных, где каждому пакету выдается карта, с определением конечного пункта сбора информации. Такая организация, без центральной управляющей системы, имеет одно огромное преимущество: невозможность одновременной катастрофы всей сети, всегда можно выбрать другую дорогу.

Социальные аспекты развертывания крупных вычислительных сетей были проанализированы задолго до появления первой сети. В августе 1962 года руководитель компьютерной лаборатории DARPA Дж.К.Р. Ликлайдер (J.C.R. Licklider) из того же Массачусетского технологического института опубликовал серию аналитических записок под общим названием «Взаимодействие человека с машиной в реальном времени». Ликлайдер полагал, что со временем множество компьютеров и локальных сетей будут объединены в единую систему, в которой каждый будет иметь возможность воспользоваться любыми находящимися в системе данными и программными продуктами. Именно Ликлайдер предложил первую детально разработанную концепцию компьютерной сети.

В1964 году вышла в свет книга Леонарда Клейнрока о пакетной коммутации, а группа RAND (Калифорния) подготовила статью о применении пакетной коммутации в военных системах телефонной связи.

В1967 Ларри Робертс (Larry Roberts), практик, воплощающий в жизнь теоретические идеи Ликлайдера, предлагает связать между собой компьютеры DARPA. Начинается работа над созданием ARPANET.

В1968 г. по заказу DARPA в BBN начали разработку устройств IMP (Interface Message Processor), в задачу которых входило обеспечить связь между компьютерами через телефонную сеть.

2 сентября 1969 года в Калифорнийском университете (КУ), Леонард Клейнрок вместе со своей командой успешно соединил компьютер с маршрутизатором IMP, размером с холодильник. Первая же попытка соединить два компьютера (расстояние между ними было 500 км) в сеть закончилась неудачей. Один ученый сидел за компьютером в КУ и разговаривал по телефону с ученым из СИИ. Когда все было соединено, первый должен был написать слово «log», а специалист в СИИ в ответ должен был написать «in», в результате чего должно было образоваться слово «login» (процедура идентификации пользователя при подключении к компьютеру по линии связи). Сидящий в КУ написал «l» и спросил по телефону коллегу в Стенфорде, получил ли тот букву. Ответ был положительный. Успешно была отправлена и буква «o». Однако затем «все рухнуло».

События 1971-1980 гг. 1971 год

Подключено уже 23 хоста ARPANET.

Самое главное событие: Рэй Томлисон (Ray Tomlison), программист из компании BBN, разрабатывает систему электронной почты и пишет программу почтовых сообщений, которые можно было передавать по сети. Он же предложил использовать значок @, который и по сей день является неотъемлемой частью любого электронного адреса.

Университет Гавайи обзавелся собственной сетью, напоминающей ARPANET – ALONANET.

1972 год

На международной конференции по компьютерам и связи было продемонстрировано взаимодействие TIP (Terminal Interface Processor) c 40 машинами сети.

Создана Рабочая Группа Национальной Сети (InterNetworking Working Group, INWG) под председательством профессора Станфордского университета Винтона Кирфа.

Опубликована спецификация Telnet (RFC 454). Одновременно с ней появилась и первая коммерческая версия UNIX, написанная на C. Менее чем через полгода были проведены первые международные подключения к ARPANET. К сети подключились машины из Англии (University College of London) и Норвегии (Rogee Radar Establishment). Тогда же была запущена спутниковая линия связи с Гавайским университетом.

1974 год

4 декабря INWG опубликовала спецификации стека протоколов TCP/IP – технологическая платформа Интернет. 1976 год

Роберт Меткалф (Robert Metcalfe), сотрудник исследовательской лаборатории компании Xerox, создает Ethernet – первую локальную компьютерную сеть.

1977 год Число хостов достигло ста.

Появилась THEORYNET, разработанная Л. Ландвебером (L. Landweber) из Винсконсинского университета. В сети, объединявшей около 100 специалистов по вычислительной технике, применялись электронная почта и Telnet.

Опубликована спецификация электронной почты (RFC 733).

DEC (Digital Equipment Corporation) создала первый коммерчески-корпоративный сайт в Интернет. 1979 год

На базе UUCP (Unix-to-Unix Copy) была запущена первая сеть типа USENET. 1980 год

Писатель и политический аналитик Алвин Тоффлер (Alvin Toffler) опубликовал книгу «Третья Волна» (The Third Wave), в которой описал постиндустриальный мир, в котором «первую скрипку» играют информационные технологии. Тоффлер, в частности, сумел оценить перспективы развития компьютерных сетей и сделал предположение, что однажды, такая сеть сможет объединить весь мир, наподобие того, как все обладатели телевизоров могут смотреть одну и ту же передачу. При этом, компьютерная сеть, по прогнозу Тоффлера, даст людям несравненно больше возможностей, чем обычное ТВ.

К концу года ARPANET объединяла в сложную иерархическую структуру более 100 хост-компьютеров на четырех континентах. Охватив половину земного шара, она сохранила принцип свободного доступа, за исключением оплаты услуг телекоммуникационных компаний, и стала важным инструментом сотрудничества для научных и бизнес-организаций. Число коммерческих сетей телеобработки данных (Telenet, Tymnet, Datapack и др.) превысило два десятка, а общий объем оказываемых ими услуг перешагнул отметку 300 млн. дол.

События 1981-1990 гг.

ARPANET теперь состояла из двух пересекающихся сетей. Одна являлась рабочей для исследователей ARPA, другая служила для тестирования и разработки.

1981 год

Вянваре был создан Центр Компьютерной Безопасности Министерства Обороны (Defence Security Center, DSC). Он занимался определением полезности тех или иных компьютерных систем, которые теперь создавались повсеместно.

Началась эксплуатация BITNET (Because It's Time NETwork) и CSNET (Computer Science NETwork), которая существовала отдельно от

ARPANET.

BITNET – была старейшей (после Интернета) глобальной сетью в мире, которая располагала сетевым доступом к распределенным базам разных научных данных и объединяла большое число университетов и НИИ по всему миру. Научная сеть BITNET, многие ресурсы которой доступны через Интернет, не является частью Интернета, так как имеет свои собственные протоколы. А попасть в нее можно через так называемые шлюзы, которые выполняют роль «переводчиков» протоколов. BITNET преимущественно использует IBMсовместимые компьютеры и соответствующий фирменный протокол NJE (Network Job Entry). Для Интернета сеть BITNET имеет важное

3

значение по нескольким причинам:

хосты BITNET используют исключительно мощные вычислительные и сетевые ресурсы;

вBITNETе действует сервер списков рассылки электронной почты LISTSERV, обслуживающий десятки тысяч пользователей Интернета;

вBITNET хорошо развит режим электронной почты, что, благодаря многим шлюзам Internet-BITNET, создает высокую степень связности пользователей BITNET и Интернет по обмену почтовыми сообщениями.

С 2007 года сеть BITNET полностью прекратила свое функционирование, однако на сегодняшний день действует проект BITNET II, в рамках которого протоколы BITNET работают поверх протоколов TCP/IP, что позволило полностью объединить Интернет и BITNET.

1982 год

В январе DCA и DARPA постановили основными протоколами передачи данных по Интернету Internet Protocol (IP) и Transmission Control Protocol (TCP).

1983 год

1 января Министерство Обороны США объявило TCP/IP своим стандартом (Military Standarts, MIL STD). Вся ARPANET была переведена с NCP на TCP/IP.

Пожалуй, этот год можно считать самым важным итогом развития сети ARPANET. Благодаря созданию протоколов TCP/IP ARPANET стала представлять собой высокоскоростную магистраль (backbone), обеспечивающую физическую связью между узлами (хостами). Введение разработанного в Висконсинском университете общего сервера имен уже не требовало от пользователей запоминать цифровой адрес той или иной машины.

Из состава ARPANET выделилась сеть MILNET (MILitary NETwork), предназначенная только для обмена военной информацией. Термин Internet стал использоваться для обозначения единой сети: MILNET плюс ARPANET.

1984 год

Введена система DNS (Domain Name System).

Число хостов превысило тысячу. 1988 год

2 ноября выпускник Корнельского университета Роберт Таппан Моррис запустил в сети свою программу, которая из-за ошибки (а может, и по злому умыслу) начала бесконтрольное распространение и многократное инфицирование узлов сети. В результате было инфицировано около 6200 машин, что составило примерно 8 процентов общей численности машин в сети. В связи с этим был сформирована CERT (Computer Emergency Response Team).

1990 год

ARPANET прекратила свое существование, ее функции продолжала NSFNET, уже объединившая большинство сетей и практически ставшая Интернетом в том виде, в котором он есть сейчас. В связи с этим очень быстро начали расти Интернет-провайдеры. Первым коммерческим ISP был The World.

События 1991-1999 гг. 1990 год

Создан первый текстовый браузер, названный WWW. 1991 год

Пол Линднер (Paul Lindner) и Марк МакКахил (Mark P.McCahill) разработали программу Gopher, позволяющую собирать информацию с серверов в Интернете.

1991/92 год

Инженер из Европейской Физической Лаборатории CERN Тим Бернес-Ли (Tim Berness-Lee) разработал протокол WWW (World Wide Web) и идею гипертекста. Эта разработка была сделана, прежде всего, для обмена информацией среди физиков.

Концепция Всемирной Паутины, в отличие от существующих к тому времени протоколов Интернет, таких как FTP, Telnet, WAIS , дала возможность представлять информацию в естественной форме с текстом, графикой, звуком и прочими атрибутами. Фактически же WWW

– это распределенная система, основанная на использовании гипертекста, впервые предложенного в 70-х годах Тедом Нельсоном. Появились первые компьютерные вирусы, распространяемые через Интернет.

1993 год

В январе насчитывалось уже 50 Web-серверов.

Представлен первый полноценный браузер Viola для X Window, в котором воплотились все составляющие первоначального проекта – графическая гипертекстовая система с использованием мыши.

В феврале появилась альфа версия браузера Mosaic для X Window, разработанная в NCSA (National Center for Supercomputing Applications in University of Illinois) университета штата Иллинойс командой под руководством Марка Андрисена (Mark Andreesen).

Число интернет-хостов превысило 2 млн., в сети действует 600 сайтов. К Интернету официально подключилась Россия.

1994 год Началась торговая деятельность через сеть. Российский хакер Владимир Левин, по официальной версии, атаковал американский Ситибанк

(CitiBank).

Начинается разработка средств защиты доступа для Паутины.

Лицензирование броузера Mosaic – которое открыло дорогу коммерческим разработкам. Джеймс Кларк (James Clark), основателъ компании Silicon Graphics, в апреле основал компанию Mosaic Communication Corporation (потом переименовалась в Netscape, сейчас не существует), в которую пригласил разработчика Mosaic Марка Андрисена и часть его команды из NCSA.

Трафик по Интернету превысил 10 гигабайт/месяц. По популярности среди пользователей WWW обошла Telnet.

Назрела необходимость очередного обновления оборудования и фактически правительство Соединенных Штатов самоустранилось от ежедневного управления работой Сети.

Мир получил сеть с полностью добровольным участием. Высшая власть в Интернет признается за обществом с добровольным членством – ISOC (Internet SOCiety). Его цель – способствовать глобальному обмену информацией через Интернет. IAB не присваивает адресов, но именно он разрабатывает правила, их присвоения.

В июле CERN создал группу названную W3 Organization, совместное предприятие CERN и MIT (Massachusetts Institute of Technology), для дальнейшего развития WWW. К началу 1995 эта группа трансформироваласъ в The World Wide Web Consortium (www.w3c.org) и продолжает оставаться одним из ведущих разработчиков WWW, выпуская основные материалы по ней.

1995 год

В результате бурного роста сеть разрослась до уровня шести миллионов подключенных серверов. Запущена поисковая машина AltaVista. Появилась потоковая технология RealAudio. Появляются первые варианты будущей IP-телефонии.

Регистрация доменных имен перестала быть бесплатной. Начиная с 14 сентября за регистрацию, которая до этого субсидировалась NSF, взимается плата в размере 50$.

Проведена серия успешных хакерских атак против официальных ведомств США. 1996 год

4

Началось соревнование между браузерами Netscape, созданным под руководством Марка Андреесона, и Internet Explorer, разработанным компанией Microsoft.

В мире существует 12.8 млн. хостов и 500 тыс. сайтов. 1997 год

Произошла катастрофа, показывающая, насколько все же нестабилен Интернет – ошибка в DNS Network Solutions привела к блокированию доступа к миллионам коммерческих Web-сайтов.

1999 год Впервые предпринята попытка цензуры Интернета (популярен принцип: «Интернет никому не принадлежит»). В ряде стран (Китай,

Саудовская Аравия, Иран, Египет, страны бывшего СССР) государственными органами предприняты серьезные усилия, чтобы технически блокировать доступ пользователей к определенным серверам и сайтам политического, религиозного или порнографического характера.

На сегодняшний день многие исследователи и аналитики говорят о возможном закате эры PC и исчезновении Интернета в его нынешнем виде – как сети пакетной передачи данных, напрямую связывающей своих пользователей и вошедшей чуть ли не в каждый дом. На смену им, по их мнению, прейдет всемирная вычислительная Сеть, работающая как гигантский суперкомпьютер, предлагающий не услуги передачи данных, а доступ к работающим на нем приложениям с оплатой за фактическое использование его ресурсов. По сути, это означает переход от продажи услуг транспортного уровня к предоставлению услуг уровня приложений.

5.Историческое начало: Web 1.0

Web 1.0 является ретронимом понятия, которое относится к статусу WWW и любому стилю дизайна вебсайта, используемому перед появлением термина Web 2.0. Это — общий термин, который был создан, чтобы описать Сеть перед «взрывом пузыря «.com»» в 2001, который многие специалисты называют поворотным моментом для развития Интернета.

WEB 1.0 сформировался в 90-е годы во многом хаотично и имел главный качественный скачок – переход от простого размещения документов виде файлов к созданию сайтов на основе программного обеспечения (движка и шаблонов показа) и баз данных. Во многом дизайн и пользовательские решения, которые можно охарактеризовать как «гладкий стиль», были унаследованы от полиграфии и мультимедийных презентаций.

Своего предела «гладкий стиль» достиг примерно к 2005 году. Дело в том, что уникальные решения и развитие в интернете возможны в трѐх областях:

Программирование сайта Дизайн сайта Контент сайта

Использование старых технологий и старых принципов организации размещения и доступа к данным автоматически ограничивает «гладкий стиль» с точки зрения программирования и программных решений.

Предел по дизайн-решениям в рамках технических границ реляционных баз данных и текстовых ссылок также был достигнут достаточно быстро. Все варианты по количеству и взаимному расположению информационных блоков на сайте были определены достаточно быстро такими студиями как Актис, Лебедев, Пирогов и т.д.

Контент, сайта WEB 1.0 создавался ведущими студиями и был выполнен качественно с точки зрения обособленного восприятия, но ограниченная система представления данных не позволяла донести его до пользователя в удобной форме. Одним из ярких примеров такой ограниченности является реализация так называемых галерей на сайтах созданных в 90-е годы. С другой стороны, такой подход имел и неоспоримое преимущество, заключавшееся в том, что с точки зрения контента, web-студии внимательны к мелочам и деталям, строго следуют законам человеческого восприятия и культурным правилам (например, следят за орфографией и логикой текстов).

В данной терминологии подразумевается сравнение сайтов по типу используемой технологии. Для понимания, того, что подразумевается под термином Web 1.0, сформулируем список элементной базы Web 1.0 на основании того, с чем боролись последователи Web 2.0: Статичные страницы, вместо генерируемого пользователями динамического контента;

Бедная гипертекстовая разметка - большинство контента де-факто являлось простым текстом, зачастую пренебрегая правилами HTML; Использование фреймов;

Использование специфичных тегов HTML - следствие редактирования страниц в WYSIWYG редакторах, встроенных в конкретный браузер или сторонника конкретного браузера "войной браузеров"; гостевые книги, форумы или чаты - как попытка придания интерактивности;

Кнопки формата GIF, обычно 88x31 пикселей, в качестве указания поддерживаемых браузеров;

Указание конкретного разрешения монитора, при котором дизайн сайта отображается корректно (не вылезает за пределы страницы, не разъезжается форматирование);

Крайне редкое и непопулярное использование стилей CSS при оформлении страниц сайта.

6.Крах Web 1.0

Как отмечалось выше, поворотным моментом во многом определившим дальнейшее развитие Интернета в рамках концепции Web 2.0 стало так называемое явление «Взрыв пузыря доткомов».

Термин «доткомы» происходит от коммерческого домена верхнего уровня «.com» и переводится с английского «точка-ком». Этот термин стал нарицательным для обозначения компаний, чья бизнес-модель целиком основывалась на работе в рамках сети Интернет. Наибольшее распространение такие компании получили в конце 90-х гг. XX века. Их бурное развитие во многом было обусловлено повышенным вниманием общества к новым возможностям, предоставляемым всемирной сетью. Для периода расцвета «доткомов» также весьма характерным являлась низкая стоимость привлечения заѐмного и инвестиционного капитала для любых проектов, связанных с интернетом. Не в последнюю очередь именно это и повлекло за собой возникновение огромного количества фирм, которые, используя «Интернет» в качестве магического заклинания, легко получали значительные инвестиции не только от венчурных фондов, но и от более традиционных финансовых институтов.

Акции компаний, предлагавших использовать интернет для получения дохода, баснословно взлетели в цене. Такие высокие цены оправдывали многочисленные комментаторы и экономисты, утверждавшие, что наступила «новая экономика». На самом деле большинство бизнес-моделей новых, ориентированных на продажи через интернет компаний были неэффективными, а их средства расходовались в основном на маркетинговые акции и рекламу на телевидении и в прессе.

Индекс высокотехнологичных компаний NASDAQ (National Association of Securities Dealers Automated Quotation — Автоматизированные котировки Национальной ассоциации дилеров по ценным бумагам) достиг своего пика в марте 2000 года, после чего произошло обвальное падение. В результате этих событий сотни интернет-компаний обанкротились, были ликвидированы или проданы. Несколько руководителей компаний были осуждены за мошенничество и растрату денег акционеров.

После этих событий, начался затяжной период в ходе, уцелевшим компаниям пришлось пересматривать не только свои бизнес модели, но

5

и осваивать новые средства подачи и продвижения материала. Считается, что именно в этот период стала формироваться концепция Web

2.0.

7.Появление и становление web 2.0

Появление термина Web 2.0 принято связывать со статьѐй «Tim O’Reilly — What Is Web 2.0» («Тим О’Рейли – Что такое Веб 2.0») от 30 сентября 2005 года. В этой статье Тим О’Рейли увязал появление большого числа сайтов, объединѐнных некоторыми общими принципами, с общей тенденцией развития интернет-сообщества, и назвал это явление Web 2.0, в противовес «старому» Web 1.0. По определению данному в этой статье Web 2.0 – это методика проектирования систем, которые путем учета сетевых взаимодействий, становятся тем лучше, чем больше людей ими пользуются. Особенностью Web 2.0. является принцип привлечения пользователей к наполнению и многократной выверке контента.

Сам термин Web 2.0 до сих пор является предметом многочисленных споров, но те исследователи, которые признают существование Web 2.0, выделяют несколько основных аспектов этого явления.

Веб-службы

Это программы, доступ к которым осуществляется через Веб (то есть протокол HTTP), а обмен данными происходит в формате XML. В результате программное обеспечение может использовать веб-службы вместо сложных вычислений (например, чтобы узнать по IP-адресу, из какой страны посетитель). В отличие от обычных динамических библиотек, такой подход обладает рядом плюсов:

Веб-служба находится на серверах компании, которая ее создала. Поэтому в любой момент пользователю доступна самая свежая версия данных и ему не приходится заботиться о зависимостях.

Инструменты для работы с HTTP и XML есть в любом современном языке программирования, поэтому веб-службы переходят в разряд платформонезависимых.

AJAX

Asynchronous JavaScript and XML — подход к построению пользовательских интерфейсов веб-приложений, при котором веб-страница, не перезагружаясь, асинхронно загружает нужные пользователю данные. Использование Ajax стало наиболее популярно после того как Google начала активно использовать его при создании своих сайтов, таких как Gmail и Google Maps. Отличие схемы работы Webприложения при использовании технологии AJAX показано на Рис. 2.

а)

б)

Рис. 2.

Схемы работы Web-приложения: «Классическая» (а) и с использованием технологии AJAX (б)

Часто Ajax считают синонимом Веб 2.0, что совершенно не так. Веб 2.0 не привязан к какой-то одной технологии или набору технологий, с тем же успехом ещѐ в 1999 году возможность асинхронного обновления страницы уже предоставлял Flash 4.

Веб-синдикация Одновременная публикация одного и того же материала на различных страницах или веб-сайтах. Для этого используются веб-потоки,

также называемые RSS-потоками, содержащие заголовки материалов и ссылки на них. (например, последние сообщения форумов, и т. п.). Пожалуй, именно с этой технологии начались разговоры о новой эпохе веба. Здесь, как и в случае с AJAX'ом, нет ничего принципиально нового, что дало какие-то новые возможности, которых не было раньше. Просто люди додумались использовать формат XML для синдикации, то есть использования общей информации на разных сайтах.

Раньше каждый сайт публиковал свои новости, самостоятельно добывая информацию и размещая ее у себя. И пользователям приходилось при каждом посещении Интернета просматривать по 10-20 новостных сайтов различной тематики. Ситуация изменилась с приходом технологии RSS. Теперь все выглядит так: есть какая-то новость, которую, предположим, создает определенный сайт, но эта новость к сайту не привязана и может быть использована любым другим сайтом для публикации. То есть, новости (статьи, заметки, посты) больше не являются частью какого-то одного сайта, а как бы существуют сами по себе и могут использоваться кем угодно и где угодно.

Первоначально технология RSS использовалась на новостных ресурсах и в блогах, но постепенно сфера применения расширилась.

Mash-up

Веб mash-up (дословный перевод — «смешение») — сервис, который полностью или частично использует в качестве источников информации другие сервисы, предоставляя пользователю новую функциональность для работы. В результате такой сервис может становиться также новым источником информации для других веб mash-up сервисов. Таким образом образуется сеть зависимых друг от друга сервисов, интегрированных друг с другом.

Например, сайт по поиску недвижимости с интегрированными картами Google Maps в итоге представляет собой новый, более удобный сервис, с помощью которого каждый пользователь может сразу увидеть все предлагаемые для продажи дома на карте.

Метки (теги)

Ключевые слова, описывающие рассматриваемый объект, либо относящие его к какой-либо категории. Это своего рода метки, которые присваиваются объекту, чтобы определить его место среди других объектов. С понятием меток тесно связано понятие фолксономии — термина, о котором широко заговорили именно в связи с ростом сервисов Веб 2.0, таких как Flickr, del.icio.us, и, в дальнейшем, Wink.

Социализация Использование разработок, которые позволяют создавать сообщество.

В понятие социализация сайта можно также включить возможность индивидуальных настроек сайта и создание личной зоны (личные файлы, изображения, видео, блоги) для пользователя, чтобы пользователь чувствовал свою уникальность.

При формировании сообщества большое значение имеет соревновательный элемент, Репутация или Карма, которые позволяют сообществу саморегулироваться и ставит пользователям дополнительные цели присутствия на сайте.

Дизайн

Понятие Web 2.0 так же отразилось и в дизайне. Предпочтительными стали округлость, имитация выпуклых поверхностей, имитация отражений на манер глянцевого пластика современных hi-end устройств (к примеру, плееры). В целом, восприятие внешнего вида на глаз

6

кажется более приятным. Графика таких сайтов занимает больший объѐм, нежели при использовании аскетичного дизайна. Отчасти эта тенденция связана с совпавшим по времени выходом новых версий операционных систем использующих вышеупомянутые идеи.

Однако это приводит к явному однообразию таких сайтов и в последнее время считается, графический облик классического дизайна Web 2.0, устаревшим и не креативным. Особенно это отражается в современной тенденции создания информативных сайтов где главную роль играет простота, изящество, графичность и юзабилити. В дизайне не должно быть ограничений, но Web 2.0 их прививает.

8.Примеры реализации концепций Web 2.0

Рассмотрим преимущества организации сайтов в соответствии с концепцией Web 2.0 на практических примерах.

Google Suggest — по мере набора запроса в строке поиска Гугл будет предлагать вам варианты наиболее часто используемых запросов, похожих на ваш, с информацией о количестве найденных результатов, что значительно повышает юзабилити сайтов.

Google Maps — самый яркий пример того, как веб-приложение может быть непохоже на веб-приложение. Попробуйте потаскать карту в разные стороны (просто зажимая ее мышкой и перетаскивая в нужном направлении). На сайтах web 1.0 при этом обычно происходила перезагрузка страницы. Но на Google Maps перезагрузка не происходит, меняется только лишь тот кусок страницы, который должен меняться, — карта.

Gmail — достойный конкурент всем почтовым клиентам. Это веб-интерфейс полностью построенный на AJAX'е, что дает ему право считаться достойной альтернативой и Бату, и Аутлуку, и любому другому "почтовику". А сервис Google Calendar не в чем не уступает календарю Microsoft Outlook. Помимо отсутствия недостатков веб-приложений, эти сервисы имеют еще и явные преимущества перед оффлайновыми аналогами. А именно, их мобильность. Вы всегда можете получить к ним доступ, так как они хранятся в Сети.

Torrent и пиринговые сети. Наверное, все знают, что такое пиринговые сети (они же p2p — peer2peer, пользователь-пользователь), но раз уж я начал писать эту статью, то затрону и описание этой составляющей Веба 2.0.

Пережитком прошлого являются файловые сервера, с которых пользователи всегда качали софт, музыку, видео и прочие файлы. На смену им приходят пиринговые сети, сети, в которых нет единого хранилища, а есть миллионы пользователей обладающих необходимыми нам файлами.

Разница заключается в том, что если пользователь качает файл с сервера, то вынуждены делить пропускную способность сервера с другими людьми, качающими файлы с этого сервера. То есть, скорость закачки сильно зависит от пропускной способности каналов сервера и количества активных пользователей. Качая же файлы из torrent-сети пользователь получает этот файл одновременно от всех пользователей, у которых на компьютере он есть. И чем больше таких пользователей, тем выше скорость закачки. Пиринговые сети устроены так — чем больше пользователь отдает, тем больше он получает, т.е. появляется еще один привлекающий фактор, который действует уже на социальном уровне.

9.Концепция Wiki

Таким образом, основную идею Web 2.0 можно выразить словами «Интернет который создается всеми для всех». Наверное одним из самых ярких явлений Web 2.0 можно считать появление Wiki-сайтов.

Wiki-сайт - это веб-ресурс, позволяющий посетителям добавлять и редактировать информацию, а также создавать ссылки на другие страницы.

Идея привлечь пользователей Интернета к наполнению веб-ресурса контентом по своему вкусу - проста и в то же время гениальна. Владельцу сайта не надо тратить деньги на копирайтеров и контент-менеджеров, подбирать материалы, ведь за него это сделают пользователи ресурса. Популярность wiki-проектов на сегодняшний день невероятно высока. Одним из самых больших и наиболее посещаемых Wiki-ресурсов рунета является онлайновая энциклопедия "Википедия" (http://www.ru.wikipedia.org).

При этом стоит отметить, что разработкой концепции wiki занимался американский программист Говард Каннингем, и еще в 1994 году его идея о привлечении посетителей сайтов к процессу публикации материалов, не только не была оценена по достоинству, но и была безжалостно раскритикована.

10.Недостатки Веб 2.0

Как было описано выше бурное развитие и повсеместное внедрение концепции Web 2.0 началось примерно в 2005 году, на сегодняшний день можно попробовать подвести итоги этого внедрения и выявить недостатки подхода к развитию сети Интернет, предлагаемому сторонниками Web 2.0.

Использование сервисов сторонних компаний для размещения своих интернет-представительств и электронных офисов наряду с достоинствами приносит и определѐнные проблемы. Среди них:

зависимость сайтов от решений сторонних компаний, зависимость качества работы сервиса от качества работы многих других компаний; слабая приспособленность нынешней инфраструктуры к выполнению сложных вычислительных задач в браузере; уязвимость конфиденциальных данных, хранимых на сторонних серверах, для злоумышленников (известны случаи хищения личных данных пользователей, массовых взломов учѐтных записей блогов).

Фактически сайт эпохи Веб 2.0 на первый взгляд интерактивен и дружелюбен, позволяет себя легко настраивать. Однако сбор статистики о пользователях, их предпочтениях и интересах, личной жизни, карьере, круге друзей могут помочь владельцу сайта манипулировать сообществом. По самым пессимистичным прогнозам многочисленные сайты Веб 2.0 вкупе с другими современными технологиями дают прообраз тоталитарной системы «Большого брата».

С точки зрения социализации сети тоже можно выделить несколько негативных моментов. Хотя у концепции Web 2.0 нет четкого определения, но часто под Web 2.0 понимают массовые сервисы, дающие возможность пользователями самостоятельно производить контент (дневники, статьи, фотоальбломы, сборники ссылок), а также манипулировать связями между своими и чужими материалами в Сети (настраивать собственные ленты для чтения избранных веблогов или новостей, встраивать собственные материалы в коллективные блоги и википедии, и т.д.). Зачастую создатели Web 2.0-ресурсов просто не знают, что происходит внутри их сервиса, не могут влиять на этот «народный» контент или использовать его. Самый забавный пример — основателю Wikipedia пришлось 18 раз исправлять собственную биографию на данном сайте, потому что другие люди тоже переписывали ее много раз. Сейчас вокруг Wikipedia затеяно несколько судебных процессов, а в прошлом году ее основатели были вынуждены запретить незарегистрированным пользователям редактировать страницы Википедии. Однако ясно, что данная мера не решит проблему.

Еще более заметны эти недостатки, когда на сервисах Web 2.0 пытаются строить какой-то «содержательный» (т.е. связанный с контентом) бизнес — например, контекстную рекламу. Для работы с контентом применяются примитивные поисковые роботы, которые даже в случае Web 1.0 едва ли могли похвастаться «осмысленными» результатами. Что же говорить о Web 2.0, где вместо статичных сайтов мы имеем тонны ежедневного «потока сознания» от миллионов пользователей.

Эксперты отмечают, что примерно каждый пятый веблог на сегодня является спаммерским, причем спаммеры легко обманывают автоматические системы ранжирования. Попытку администрации LiveJournal.com использовать роботов для цензуры блогов можно

7

считать неудачной, так как в результате было закрыто множество блогов, содержащих полезную информацию, но в тексте статей которых упоминались выбранные для цензуры фразы.

Кроме того обилие любительского контента приводит к тому, что стирается граница между качественной объективной информацией, подготовленной профессионалами, и слухами и домыслами из многочисленных блогов.

Исследования проведенные аналитиками агентства Hitwise показали, что подавляющее большинство пользователей не испытывают никакого стремления создавать контент самостоятельно. Если смотреть на статистику знаменитого портала видеохостинга YouTube, то из всех пользователей лишь 0,16% закачивают на сайт свое видео, все остальные предпочитают смотреть творения людей, входящих в эти сотые доли процента. Среди посетителей Flickr ситуация чуть лучше - свои материалы на портал загружают около 0,2%, ну а любители Wikipedia по количеству создаваемого контента стали лидерами - 4,6% всех посетителей ресурса.

Однако на сегодняшний день, сайты, создаваемые в стиле концепции Web 2.0, за последние два года пережили небывалый рост популярности: посещаемость ресурсов выросла на 668%, то есть в 7 раз. Несколько лет тому назад количество Web 2.0-ресурсов в США составляло всего лишь 2% от общего числа просмотренных сайтов, в то время как сейчас эта цифра равняется 12%. Наибольшую популярность завоевали ресурсы, специализирующиеся на фотоконтенте. Так, среди всех Web 2.0-сайтов их доля составляет около 51%, из которых 41% - у Photobucket.

11.Концепция Web 3.0

Выявившиеся недостатки концепции Web 2.0 привели к формированию нового течения, получившего название Web 3.0. По определению данному Джейсоном Калаканисом (руководителя Netscape.com, создателя поискового стартапа Mahalo.com и сети сайтов Weblogs) Web 3.0

– это высококачественный контент и сервисы, которые создаются талантливыми профессионалами на технологической платформе Web

2.0.

Наиболее распространѐнной версией трактовки термина Web 3.0 является идентификация его как Семантической Паутины (Semantic Web). Главная мысль этой концепции базируется на внедрении мета-языка, описывающего содержание сайтов для организации автоматического обмена между серверами. Однако на этапе обработки и вывода информации появляется ряд проблем:

появляется необходимость дополнительных затрат для создания семантической версии каждого сайта, что делает технологию значительно менее доступной; отсутствие гарантии адекватного описывания веб-мастерами собственных ресурсов (аналогично с историей использования тега

«keywords»);

невозможность принятия единого формата описания свойств ресурсов в условиях существующей конкуренции из-за корпоративнорекламной политики создателей ресурса и наличия широкого поля для манипуляций описательными механизмами.

Вторым по распространѐнности определением Web 3.0 является концепция Менеджеров знаний. Согласно этой концепции, менеджер знаний – это эксперт в конкретной области, привносящий в сообщество (Web 2.0) качественную отобранную информацию (Web 1.0), тем самым избавляющий рядового пользователя от необходимости поиска и оценки. Однако в предложенной концепции существует ряд ограничивающих факторов. Самым главным из них является предположительная возможность того, что в роли эксперта может выступать представитель компании-рекламодателя, что однозначно толкуется актуальностью предоставляемой информации исключительно для интересов самого эксперта.

Автор термина «Web 2.0» Тим О’Рейли (Tim O'Reilly), предложил определить Web 3.0, как взаимодействие интернета с физическим миром, однако до тотального внедрения подобных технологий (распознавание жестов в iPhone и контроллере Wii) в бытовое обращение о новом поколении Web говорить еще рано. Также он неоднократно выступал с критикой отождествления Семантического Веба и концепции Web 3.0.

На сегодняшний день некоторые сайты уже предпринимают попытки внедрения данного подхода. В качестве примера можно привести немецкий ресурс «Википедия», где была введена введения практика «замораживания» страниц с практически идеальным содержанием и приглашения авторитетных экспертов для редактирования текстов.

12.Сетевые протоколы

Протокол – одно из центральных понятий сетевых технологий.

Для того чтобы понять, что означает слово «протокол» в контексте компьютерных сетей, рассмотрим ситуацию, далекую от вычислительной техники. Каждый человек, находясь во взаимодействии с другими людьми, всегда следует некоторым стереотипам общения. Например, ситуацию, когда один человек обращается к другому для того, чтобы узнать, который час, графически можно представить так, как это сделано на рис. 2. «Человеческий протокол» (обычно называемый правилами хорошего тона) гласит, что для установления контакта человеку необходимо поздороваться с собеседником и получить от него ответное приветствие. Этому начальному фрагменту общения соответствуют первые две стрелки с надписями «Привет!» на рисунке. В случае, если потенциальный собеседник не настроен на общение, он, вероятно, выдаст другой ответ, например: «Не беспокойте меня» или «Я не говорю по-русски». Тогда инициатору общения следует прекратить попытки контакта с собеседником. Возможна также ситуация, когда собеседник не даст никакого ответа; вероятно, разумным решением здесь было бы повторить попытку установить контакт по прошествии некоторого времени. Таким образом, в основе «человеческого протокола» лежит следующий принцип: люди посылают определенные сообщения и предпринимают определенные действия в качестве реакции на эти сообщения и другие события (например, отсутствие ответного сообщения в течение установленного промежутка времени). Таким образом протокол определяется набором входящих в него сообщений и ответных действий. Если два человека используют различные протоколы (например, у одного из них неважно с общепринятыми нормами поведения или нет ощущения времени), общение между ними становится невозможным. То же самое абсолютно справедливо и в отношении сетевых протоколов — для выполнения сетью своих функций необходимо, чтобы два (или более) устройства, обменивающихся данными, использовали один и тот же протокол.

8

Рис. 3. Протоколы общения между людьми и между компьютерами Основное отличие сетевого протокола от описанного выше «человеческого протокола» заключается в том, что обмен сообщениями

производится не людьми, а аппаратными или программными средствами технического или программного обеспечения некоторого устройства (например, компьютерами, маршрутизаторами и т. п.). Любое движение информации в Интернете между двумя или более устройствами подчинено протоколу. Так, протоколы маршрутизаторов определяют путь пакета от отправителя к получателю; реализованные аппаратно протоколы сетевых интерфейсных карт двух физически соединенных компьютеров контролируют поток битов, передаваемых по сетевому кабелю; протоколы контроля перегрузки, используемые в оконечных системах, предназначены для контроля частоты передачи пакетов; и т. д. Интернет полностью основан на протоколах.

Рассмотрим, как выполняется протокол при обращении к web-серверу, при вводе пользователем адреса ресурса в адресную строку браузера. Графически данная ситуация приведена на правой половине Рис. 3. Компьютер посылает серверу сообщение с запросом на установление соединения и ждет ответа. Сервер принимает запрос и отсылает ответное сообщение, подтверждающее установление соединения. Таким образом, зная, что теперь можно запросить web-документ, компьютер отсылает серверу имя ресурса, а сервер, в свою очередь, возвращает требуемый ресурс (web-страницу или файл) пользователю.

Таким образом, протокол – набор правил определяющих формат и очередность сообщений, которыми обмениваются два или более устройства, а также действия, выполняемые при передаче и/или приеме сообщений либо при наступлении иных событий.

Протоколы очень широко используются как в компьютерных сетях вообще, так и в сети Интернет в частности. Для решения разных задач, связанных с передачей данных, требуются разные протоколы.

13.Службы с установлением и без установления соединения

Оконечные системы используют службы Интернета для того, чтобы обмениваться данными, или, говоря точнее, сообщениями. Каналы и линии связи, маршрутизаторы и другие элементы, составляющие структуру Интернета, определяют технологию передачи сообщений между оконечными системами. Далее мы рассмотрим виды таких технологий и их особенности.

Протокол TCP/IP предоставляет два вида служб оконечным системам: службу с установлением логического соединения и службу без установления логического соединения. При создании любого Интернет-приложения (программы обработки электронной почты, передачи файлов, web-браузера или приложения Интернет-телефонии) разработчику необходимо выбрать одну из двух указанных служб.

Служба с установлением логического соединения Отличительной особенностью службы с установлением логического соединения является то, что клиент и сервер перед передачей данных

(например, сообщений электронной почты) сначала обмениваются специальными управляющими пакетами. Эта процедура, иногда называемая рукопожатием, позволяет сторонам подготовиться к процессу основного обмена. Говорят, что по окончании процедуры рукопожатия соединение между оконечными системами является установленным.

Интересно отметить, что процедура рукопожатия между хостами очень напоминает протокол взаимодействия (общения) между людьми, в этом случае обмен приветствиями на рис. 3 представляет собой аналог человеческой процедуры рукопожатия. В случае webвзаимодействия, также представленного на рис. 3, процедуру рукопожатия реализуют первые два сообщения, а следующая пара сообщений — сообщение GET и ответное сообщение с файлом — содержат реальные данные и пересылаются только после успешного установления соединения. Термин «логическое» отражает два аспекта. Во-первых, об установленном соединении известно только оконечным системам; коммутаторы (то есть маршрутизаторы) функционируют, «не зная», какие оконечные системы они обслуживают. Во-вторых, соединение представляет собой не что иное, как совокупность буферов обмена, выделенных в памяти оконечных систем, а также переменных состояния. Ни буферы, ни переменные также не содержат никакой информации о том, каким образом будет осуществляться передача пакетов.

С логическим соединением связаны несколько важных задач: надежной передачи данных, контроля потока данных и контроля перегрузки. Под надежной передачей данных понимается передача, в ходе которой не допускаются потери или искажения данных. Надежная передача в Интернете обеспечивается при помощи механизмов подтверждений и повторных посылок. Для того чтобы представить процесс надежной передачи данных, рассмотрим следующую ситуацию. Пусть установлено соединение между оконечными системами А и В. Каждый раз при завершении приема очередного пакета данных от системы А система В посылает подтверждение о том, что пакет был успешно принят. В случае, если система А не получает подтверждения, она инициирует повторную посылку пакета. Контроль потока данных требуется для того, чтобы ни одна сторона не превысила установленную частоту (или скорость) передачи пакетов. Это необходимо потому, что оконечные системы могут иметь разные скорости передач и, следовательно, отсутствие контроля может привести к ошибкам. В случае вероятности таких ошибок протокол вынуждает одну из сторон снизить скорость передачи пакетов. Контроль перегрузки служит для предотвращения ситуаций взаимной блокировки передающих сторон. Когда маршрутизатор перегружен, возникает угроза переполнения его буферов и потери передаваемых пакетов. В Интернете эта проблема решается путем принудительного снижения частоты передачи пакетов в периоды перегрузки. Оконечные системы «узнают» о перегрузке по отсутствию подтверждений при передаче пакетов.

Логическое соединение не обязательно подразумевает надежную передачу данных, контроль потока данных и контроль перегрузки. Вполне допустимо существование компьютерных сетей, в которых наличие логического соединения не означает необходимость решать сразу все три задачи. В самом деле, службу с установлением логического соединения использует любая сеть, в которой перед передачей данных осуществляется процедура рукопожатия.

9

В Интернете протокол, использующий службу с установлением логического соединения, имеет название TCP (Transmission Control Protocol — протокол управления передачей). Первая версия TCP была определена в документе RFC 793. Как следует из сказанного ранее, протокол TCP решает три задачи: надежной передачи данных, контроля потока данных и контроля перегрузки. Обратим внимание на то, что приложения никак не связаны с механизмами функционирования TCP; другими словами, они «не знают», каким образом протокол решает поставленные перед ним задачи.

Служба без установления логического соединения Как вы, вероятно, уже догадались, служба без установления логического соединения не использует процедуру рукопожатия: вместо нее

происходит простая передача пакетов. Это, с одной стороны, позволяет значительно сэкономить время при пересылке данных. С другой стороны, выигрыш во времени происходит за счет снижения надежности передачи: передающая сторона не имеет информации о том, была ли передача пакета успешной. Более того, контроль потока данных и перегрузки в службе без установления логического соединения также не производится, что обусловливает возможность потерь данных при передаче. Протокол Интернета, использующий описанную службу, называется UDP (User Datagram Protocol — протокол пользовательских дейтаграмм) и определен в документе RFC 768.

Большая часть популярных Интернет-приложений работает по протоколу TCP, то есть задействует службу с установлением логического соединения. К этим приложениям относятся Telnet (для удаленного доступа в сеть), SMTP (для работы с электронной почтой), FTP (для передачи файлов) и HTTP (для навигации в web). Тем не менее протокол UDP также является весьма востребованным, в особенности в развирающейся сфере мультимедиа-приложений; например, с его помощью нередко организуются аудио- и видеоконференции.

14.Коммутация каналов и коммутация пакетов

Существует два фундаментальных подхода к организации ядра сети: коммутация каналов и коммутация пакетов. При коммутации каналов происходит резервирование на время сеанса связи необходимых ресурсов (буферов, диапазонов частот) на всем сетевом пути. При коммутации пакетов ресурсы запрашиваются при необходимости и выделяются по требованию. Иногда несколько сообщений могут пытаться использовать линию связи одновременно, поэтому возникает необходимость в организации очередей сообщений. Для наглядности рассмотрим следующую аналогию. Пусть имеются два ресторана, в одном из которых разрешается занимать места заранее, а в другом нет. Для посещения первого ресторана нам сначала необходимо сделать предварительный заказ мест по телефону и лишь затем отправиться туда лично. При этом мы избавлены от необходимости ждать свободного столика и можем немедленно требовать официанта. Для посещения второго ресторана мы не обязаны уведомлять его персонал заранее, однако в этом случае у нас могут возникнуть трудности с поиском свободного места.

Замечательным примером сетей с коммутацией каналов являются телефонные сети. Рассмотрим, что происходит, когда у одного абонента возникает необходимость передать информацию другому абоненту. Перед тем как начать разговор, нужно установить соединение между принимающей и передающей сторонами. В отличие от логического соединения, которое обсуждалось в предыдущем разделе, рассматриваемое соединение является «настоящим», то есть все каналы, лежащие на пути между абонентами, находятся в состоянии связи. На языке телефонии такое соединение называется коммутацией. При коммутации на все время соединения устанавливается постоянная частота передачи. Это возможно благодаря тому, что в телефонных сетях используется стандартная полоса частот.

Современный Интернет, напротив, является типичной сетью с коммутацией пакетов. Как правило, при передаче пакет проходит через множество каналов, однако никакого резервирования частотных полос при этом не происходит. В случае перегруженности какого-либо канала пакет будет вынужден ждать в очереди его освобождения. Таким образом, хотя с точки зрения быстродействия Интернет пытается доставлять пакеты с максимальными усилиями, время доставки не гарантировано.

Не каждую телекоммуникационную сеть можно однозначно отнести к сетям с коммутацией каналов или сетям с коммутацией пакетов. Так, например, сети, использующие режим асинхронной передачи (Asynchronous Transfer Mode, ATM) организованы таким образом, что резервирование ресурсов в них сочетается с организацией очередей сообщений. Тем не менее, разделение компьютерных сетей на сети с коммутацией каналов и коммутацией пакетов является удобной «отправной точкой» для изучения телекоммуникационных технологий.

Коммутация каналов Для того, чтобы лучше понять причины, по которым в Интернете используется коммутация пакетов, а не традиционная коммутация

каналов кратко рассмотрим коммутируемые телефонные сети.

На Рис. 4 приведена типичная структура сети с коммутацией каналов. В этой сети четыре коммутатора соединены между собой линиями связи. Каждая из линий способна одновременно поддерживать n каналов связи. Хосты (персональные компьютеры, рабочие станции и т. п.) напрямую соединены с одним из коммутаторов. Между парами хостов устанавливается выделенное сквозное соединение. Таким образом, чтобы хост А имел возможность передавать пакеты хосту В, необходимо зарезервировать одну полосу частот на каждой из двух линий связи, соединяющих хосты А и В. Поскольку каждая линия связи способна поддерживать одновременно n каналов связи, ширина полосы канала связи составляет 1/n часть от полосы пропускания линии связи.

Рис. 4. Простая сеть с коммутацией каналов, состоящая из четырех коммутаторов и четырех линий связи

Мультиплексирование в сетях с коммутацией каналов Каждый канал связи в линии связи организовывается при помощи частотного либо временного разделения. В первом случае каждому

каналу связи отводится определенная полоса частот, которая не изменяется в течение всего сеанса связи. Например, для телефонных сетей типичной шириной полосы пропускания является 4 кГц. Радиостанции, работающие в FM-режиме, также используют принцип частотного разделения.

Суть временного разделения заключается в следующем: время разбивается на равные промежутки, называемые кадрами, а каждый кадр

10

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]