Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Доклад ИТЭ.docx
Скачиваний:
2
Добавлен:
01.05.2025
Размер:
66.18 Кб
Скачать
  1. Управление знаниями в различных компаниях

Сегодня существует ряд компаний, которые предлагают свои разработки и услуги на рынке ПО, специально предназначенного для управления корпоративными знаниями. Например, одним из методов извлечения знаний из набора данных, который в последнее время все в большей степени распространяется, называется Data Science.

Долгое время информация была редким ресурсом. Однако дефицит сменился взрывным ростом. По прогнозам IDC, объемы информации будут удваиваться каждые два года в течение следующих восьми лет. Один из основных факторов этого роста — увеличение доли автоматически генерируемых данных: с 11% их общего объема в 2005 году до более чем 40% в 2020-м. При этом используется лишь менее 3% из 23% потенциально полезных данных. К 2020 году общий объем цифровых данных достигнет 40 зеттабайт. Для понимания масштаба: если записать 40 зеттабайт данных на самые емкие современные диски Blue-ray, общий вес дисков без упаковки будет равен весу 424 авианосцев. Человечество научилось генерировать и хранить данные. Сейчас учится анализировать. И конкурентное преимущество получат те, кто первыми научатся извлекать из них выгоду.

Термин Big Data появился несколько лет назад. Им обозначают работу с данными, соответствующими трем непривычно большим V: Variety, Velocity, Volume. Volume – объем, Velocity – скорость, Variety – многообразие. Если рассматриваемый объект подпадает под определения правила трех V, то он относится к области Big Data. Из большого разнообразия развивающихся информационно-коммуникационных технологий можно выделить три основных тренда на текущий момент – виртуализация, облака и область, относящаяся к хранению и обработке большие объемов данных(Big Data). И до этого данные были объектом изучения и анализа, но в настоящее время это явление приобретает поистине глобальный масштаб. Никто не хочет хранить данные в хранилище данных просто так, позволяя лежать им там мертвым грузом. Именно это послужило причиной возникновения так называемой Data Science – науки о данных. Термин Data Science более десяти лет назад ввел в обиход профессор Вильям Кливленд, который написал Data Science: An Action Plan for Expanding the Technical Areas of the Field of Statistics.  В более широком значении, data science – это то, что позволяет извлекать знания из набора данных. От обычной статистики Data science отличается более комплексным подходом – для анализа привлекаются все возможные источники, включающие в себя не только таблицы с сухой статистикой, но также и другие данные. 

Масштабы научных задач поражают, но бизнес требует еще и быстроты обработки. При принятии взвешенного решения о выдаче кредита за пятнадцать минут нужно проанализировать серьезный массив данных. У интернет-магазинов время измеряется уже секундами. Пока клиент задумался, нужен ли ему тот или иной товар, Amazon должен успеть проанализировать историю его поведения в интернете, сравнить с поведением аналогичных клиентов и подсунуть наиболее заманчивые альтернативы из ассортимента более чем в миллион позиций.

Революция происходит не в технологиях хранения, а в генерации данных и попытках использовать их в неочевидных решениях. Большие массивы данных — лишь вспомогательный инструмент в давно существующих задачах маркетинга, управления запасами, оптимизации производства. Работа с данными велась всегда, но сейчас можно говорить о переходе количества в качество. Сравнительно недавно появилось умение понимать, осмысливать данные и принимать решения на их основе. Произошло это за счет того, что данные и методы их анализа стали высокотехнологичными. Пока за аналитику все чаще выдают статистику. Если вы загрузили данные, а в ответ получили лишь построенную по ним кривую и вынуждены сами ломать голову над причинами изменений и над тем, что с ними делать, — это статистика. Data science — это наука о работе с данными, умении вытягивать из больших объемов информации не просто тренды, а их объяснение и обоснование возможных решений.

Если проблемы скорости и объема данных решаются прежде всего техническими методами, то анализ неструктурированных данных и их применение в бизнес-практике — задача уже интеллектуальная. Прежде компаниям приходилось иметь дело лишь с четко структурированными данными своей финансовой отчетности и такими же сведениями о клиентах и поставщиках. Теперь значительная часть представлена в форматах, мало соответствующих привычным форматам корпоративных баз данных, — это страницы в социальных сетях, видеозаписи, веб-журналы, логи многочисленных устройств, геолокационные данные. Но именно из них можно извлечь дополнительную информацию для принятия решений: если анкета заемщика кажется идеальной, но контент-анализ его поведения в интернете установил, что он с вероятностью 95% является неимущим, — это повод пересмотреть риски.

Подобные технологии намного эффективнее, чем может показаться на первый взгляд. В марте были опубликованы результаты работы алгоритма, характеризующего пользователей Facebook по оставляемым ими лайкам. Расовая принадлежность была угадана в 95% случаев, пол — в 93%, политические взгляды (демократ или республиканец) — в 85%, религиозные убеждения — в 82%, наличие отношений — в 67%. При этом анализ ведется не по очевидным лайкам-маркерам, а по большим объемам менее информативных, но более популярных лайков. Например, высокий IQ коррелирует — с фильмом «Властелин колец» и музыкой Моцарта, а одиночество — с Марией Шараповой.

Пока анализ больших массивов данных стал неотъемлемой частью операционной деятельности в немногих отраслях, таких как телекоммуникации, интернет-реклама, социальные сети, страхование. На наших технологиях моделируется геном человека, на них же работают, например, Skype, Nyse, NASDAQ, Euronext, T-Mobile. Но это все уникальные клиенты, тиражными пока стали лишь решения для работы с большими данными для сотовых операторов и банков. И те и другие работают на массовых рынках в условиях очень жесткой конкуренции, что вынуждает постоянно искать новые решения для сохранения доходности.

Нефть в 3D. В 2005 году новорожденная Гидродинамическая модель месторождения (Rock Flow Dynamics, RFD), не имея ни бренда, ни больших денег, замахнулась на рынок, который принято считать высококонкурентным. Нефтегазовые компании по всему миру сидят на софте таких грандов, как Roxar и Schlumberger, работающих на рынке не один десяток лет, либо разрабатывают собственные программы, поскольку приобретение и поддержка лицензии обходится как собственный штат программистов. Основные конкурентные преимущества на этом рынке — скорость вычислений, простота работы, набор опций, реакция на потребности клиента и мгновенная круглосуточная техподдержка.

Гидродинамическая модель месторождения — важная составляющая извлечения нефти и газа на поверхность, будь то выработка старых скважин или новое бурение. После того как закончилась геологоразведка, поработали сейсмологи, геологи, геофизики и стало понятно, что ресурсы есть, возникает вопрос: как их добыть? Здесь важно все: формы залегания в недрах, особенности пластов, окружающей среды, условия формирования, разрушения, качество самого ресурса, наличие примесей — газа, конденсата и так далее. Все эти данные и расчеты собираются, строится 3D-модель, которую штатные инженеры могут вертеть, проигрывая различные сценарии разработки. Такая модель позволяет определить оптимальную расстановку скважин, направление и длину гидроразрыва пласта, выбрать методы бурения; оценить в динамике взаимодействие пар добывающих и нагнетательных скважин в любой момент времени, в любой момент закачки; рассчитать суммарный дебит нефти для определенной группы скважин, создать ежегодный сводный отчет для любого периода. Все это позволяет выбрать оптимальный вариант дальнейших работ.

До возникновения этой технологии, в том числе из-за отсутствия компьютерных мощностей, использовались «системы старого поколения» — двухмерные карты да наработанный опыт. Некоторые, кстати, пользуются столь расточительным методом до сих пор — это как считать на счетах при наличии компьютера.

С 2006 года начались переговоры с Intel — компания сама вышла на разработчиков софта. Intel дал программистам бесценный совет: если будете писать программу, имейте в виду — грядет эра двухъядерных и более процессоров; они позволяют производить параллельные вычислительные процессы — то есть разбивать задачи на составляющие, которые можно обсчитывать отдельно. И это, пожалуй, главное отличие Rock Flow Dynamics от конкурентов, создавших свои сложные системы еще для одноядерных процессоров и, как следствие, проигравших в скорости расчетов. А чтобы написать программу для многоядерной системы, все надо начинать сначала.

В 2007 году у RFD случился первый прорыв. Несмотря на недоработки — во многом благодаря скорости вычислений, — Rock Flow Dynamics удалось договориться с ТНК-BP о внедрении флагманского продукта tNavigator на все предприятия корпорации. Прорыв не только финансовый — важно было имя покупателя, мировое признание. Почти сразу подтянулись «Лукойл», «НоваТЭК», «Роснефть», «Башнефть».

В 2010-м, впечатлившись успехами «тестовых пользователей», Intel решила инвестировать в Rock Flow Dynamics — разработчикам предлагали 2 млн долларов. Но разбогатевшая компания взяла половину, отдав, судя по открытым данным, 17,7% акций и впустив в совет директоров двух представителей. Intel определила маркетинговую стратегию и дала имя. Двери на международный рынок были открыты.

В том же 2010 году компания вышла на безубыточность, а в 2011-м — уже заработала более 3 млн долларов. В конце 2011-го — начале 2012 года RFD заметил фонд «Сколково».

Итак, основа успеха: скорость расчетов, простой интерфейс, не требуется присутствия специалистов даже при установке программного пакета и обучении пользователей. Программой могут пользоваться не только сотрудники центра моделирования, но и специалисты на самом месторождении. Наконец, еще одно важное преимущество — плотное общение с заказчиком и готовность оперативно подстраиваться под его нужды.

Таким образом, Data Science и Rock Flow Dynamics – яркие примеры, как компании с помощью современных информационных технологий предлагают управлять корпоративными знаниями организации.