
BID DATA в управлінні персоналом у ПрАТ Київстар
.pdf11
Якщо ж замислитися над тим, коли саме виник та сформувався термін BIG DATA, то варто розглянути еволюцію даного поняття та вивчити його розвиток.
Поняття великих даних існує вже досить тривалий період часу. Більшість організацій зараз розуміють, що якщо вони збирають усі дані, що надходять у їхній бізнес, вони можуть застосувати аналітику та отримати від неї значну цінність. Але навіть у 1950-х роках, перш ніж хто-небудь вимовляв термін
"великі дані", підприємства використовували базову аналітику (по суті, цифри в електронній таблиці, яку вручну перевіряли), щоб розкрити уявлення та тенденції [30].
Однак, нові переваги, які приносить аналіз великих даних, - це швидкість та ефективність. Якщо кілька років тому бізнес збирав інформацію, проводив аналітику та знаходив інформацію, яка могла б бути використана для майбутніх рішень, то сьогодні бізнес може визначити будь-які уявлення, що стосуються негайних рішень. Можливість працювати швидше дає організаціям конкурентну перевагу, якої раніше вони не мали.
Приблизно з кінця 1980-х років кількість зібраних даних продовжувала значно збільшуватися завдяки постійним зменшенням витрат на жорсткі диски. Тоді Вільям Х. Імон запропонував "сховище даних", що є системою,
оптимізованою для звітності та аналізу даних. Відмінність від звичайних реляційних баз даних полягає в тому, що сховища даних зазвичай оптимізовані для часу відповіді на запити. Дані багато разів зберігаються із позначкою часу,
і такі операції, як DELETE та UPDATE, використовуються набагато рідше
[28]. Наприклад, якщо бізнес хотів порівнювати тенденції продажів за кожен місяць, усі операції з продажу можуть зберігатися із часовими позначками в сховищі даних і запитуватися на основі цієї часової позначки. Також термін
“BI (Business Intelligence)” був запропонований Говардом Дреснером у Gartner
у 1989 році.
BI підтримує кращі прийняття бізнес-рішень шляхом пошуку, збору та аналізу накопичених даних у бізнесі. Концепція зародження була лише
12
природною, враховуючи якість таких технологій, як бази даних та сховища даних, що їх підтримують. Особливо великі компанії сприйняли BI,
систематично аналізуючи дані клієнтів під час прийняття бізнес-рішень.
Саме цей період став дуже важливим для подальшого розвитку великих даних, але це був тільки один з етапів до наступного поштовху до розвитку.
Обмін даними, що з'явився близько 90-х років ХХ століття, - це обчислювальний процес для виявлення шаблонів у великих наборах даних.
Аналізуючи дані по-різному від звичайних методів, можна очікувати несподіваних, але корисних результатів [16]. Розвиток обміну даними стало можливим завдяки технології баз даних та сховищ даних, які дозволяють компаніям зберігати більше даних і все ще аналізувати їх розумно. Виникла загальна тенденція бізнесу, коли компанії почали «прогнозувати» потенційні потреби клієнтів на основі аналізу історичних моделей закупівель.
Наступною великою зміною став Інтернет. На вимогу пошуку певного веб-сайту в Інтернеті Ларрі Пейдж та Сергій Брін розробили пошукову систему Google, яка обробляє та аналізує великі дані в розподілених комп'ютерах [20].
На початку 2010-х років було випущено Amazon Redshift, який є хмарним сховищем даних, та Google BigQuery, який обробляє запит у тисячах серверів
Google. Обидва прийшли зі значним падінням вартості та знизили перешкоду для обробки великих даних. Сьогодні кожна компанія може отримати інфраструктуру для аналізу великих даних у межах розумного бюджету [21].
Як же можна визначати великі дані і які є до них вимоги, що їх описують?
Існує три основні характеристики великих даних: обсяг, швидкість та різноманітність. Хоча є багато інших характеристик великих даних, таких як правдивість, змінність, нестабільність, ці три застосовні для всіх галузей [20].
Приклад мультимедійних даних, таких як поєднання даних зображення та текстових даних, є прикладом. Наприклад, Facebook має сімсот тисяч входів щохвилини до мережі, це генерує величезну кількість даних.
13
|
Таблиця 1.2 |
|
Три основні характеристики великих даних |
|
|
Назва |
Суть |
характеристики |
|
Обсяг |
Величезна кількість даних, що генеруються через різні джерела, такі |
|
як веб-журнали, датчики в машинах, дані транзакцій. |
Швидкість |
Дані генеруються з більшою швидкістю від джерел. Швидкість |
|
генерування даних прямо пропорційна кількості користувачів. |
|
Широке поширення використання Інтернету є фактором швидкості. |
Різноманітність |
Отримані дані є в різних структурах. Дані можуть бути |
|
структурованими або неструктурованими. Структуровані дані можуть |
|
бути легко проаналізовані в порівнянні з неструктурованими даними, |
|
але більшість генерованих даних є неструктурованими або |
|
комбінованими структурованими або неструктурованими. |
Таким чином можна пояснити гучність і швидкість, з якою працює програма. У рамках користування даною мережею користувачі поширюють дописи, які містять текст, зображення, слухають аудіо та відео, які відрізняються за своєю структурою. Це пояснює різноманітність великих даних. Серед цієї різноманітності можна виділити такі типи [16].
Існує величезна кількість застосувань Big Data Analytics в різних галузях,
зокрема в управлінні організаціями [26].
|
Таблиця 1.3 |
|
Типи великих даних |
|
|
Тип |
Характеристика |
Data |
Застосування наукових методів до визначення, збору, представлення, |
Science |
аналізу, інтерпретації та прийняття рішень на основі даних. Поєднання |
|
навичок роботи з доменами, статистики та машинного навчання, |
|
інженерних та бізнес-навичок. |
Big Data |
Поняття, методи та інструменти, які використовуються для вивчення |
Analytics |
наборів даних, які є надзвичайними за своїми розмірами, швидкістю |
|
генерації / придбання чи складністю. |
Існує величезна кількість застосувань Big Data Analytics в різних галузях,
зокрема в управлінні організаціями.

14
Існує чотири різні фази аналітики великих даних, це збирання даних,
зберігання даних, організація даних, аналіз даних та прийняття рішень (Data Acquisition, Data storage, Data Organization, Data Analysis). Hadoop Ecosystem
використовується для аналізу великих даних [30].
ппФази аналітики BIG DATA
Збирання даних |
Зберігання даних |
Організація |
Аналіз даних та |
|
даних |
прийняття |
|||
|
|
|||
|
|
|
рішень |
Рис. 1.2. Фази аналітики BIG DATA
Збирання даних: збирання даних з різних джерел. Для процесу збору даних використовуються різні інструменти.
|
Таблиця 1.4 |
|
Особливості фаз аналітики BIG DATA |
|
|
Фаза |
Особливості |
Збирання даних |
Для процесу збору даних використовуються різні інструменти. Sqoop, |
|
використовується для завантаження та вилучення даних з Hadoop та |
|
реляційних баз даних. |
Зберігання |
Існує три типи інструментів зберігання даних для великих даних. |
даних |
HDFS, розподілена файлова система Hadoop - це файлова система з |
|
відкритим кодом Apache з відкритим кодом, поєднана з механізмом |
|
MapReduce для зберігання та обробки великих розмірів даних. |
Організація |
Перетворення доступного формату даних у формат, який може бути |
даних |
легко проаналізований на основі певної вимоги. |
Аналіз даних та |
Застосування таких методів аналітики, як видобуток тексту, |
прийняття |
прогнозована аналітика, контекстний пошук, статистичний аналіз, |
рішень |
потокова аналітика даних для отримання цінних відомостей. |
15
Sqoop, використовується для завантаження та вилучення даних з Hadoop
та реляційних баз даних. Flume, безперервно передає дані в Hadoop. Storm
дозволяє легко надійно обробляти безмежні потоки даних для обробки в режимі реального часу з Hadoop.
Збирання даних: збирання даних з різних джерел. Для процесу збору даних використовуються різні інструменти. Sqoop, використовується для завантаження та вилучення даних з Hadoop та реляційних баз даних. Flume,
безперервно передає дані в Hadoop. Storm дозволяє легко надійно обробляти безмежні потоки даних для обробки в режимі реального часу з Hadoop [30].
Зберігання даних: Існує три типи інструментів зберігання даних для великих даних. HDFS, розподілена файлова система Hadoop - це файлова система з відкритим кодом Apache з відкритим кодом, поєднана з механізмом
MapReduce для зберігання та обробки великих розмірів даних. Бази даних
NoSQL, побудовані на читанні та додаванні на основі розподіленої архітектури, стійкої до відмов, як Oracle NoSQL DB, Mongo DB. У базі даних,
де дані зберігаються в основному в пам'яті, яка покращує продуктивність,
серед них: Oracle TimesTen, Microsoft SQL Server [30].
Організація даних: Організація даних - це перетворення доступного формату даних у формат, який може бути легко проаналізований на основі певної вимоги. Інструменти MapReduce, Hive, Pig, Zookeeper, Oracle SQL
Loader, ETL - це деякі інструменти організації даних. MapReduce - модель програмування, де дані спочатку впорядковуються в пари ключових значень.
Функція Map використовується для обробки набору даних для створення нового набору проміжних пар [30].
Аналіз даних та прийняття рішень: Аналіз даних - це застосування таких методів аналітики, як видобуток тексту, прогнозована аналітика, контекстний пошук, статистичний аналіз, потокова аналітика даних для отримання цінних відомостей. Для аналізу даних використовуються такі інструменти, як In Database R, для аналізу в базі даних, SAS, SPSS, Oracle Endeca [30].
16
Прийняття рішень здійснюється менеджерами на основі результатів аналізу даних за допомогою інструментів бізнес-аналітики, таких як Tableau,
Palantir, Qlikview.
Сучасні організації намагаються поєднати передові аналітичні методи з великими даними, щоб зробити більш ефективний аналіз для оптимізації бізнес-операцій, виявлення ділових ризиків, прогнозування нових можливостей для бізнесу та відповідності законам чи нормативним вимогам.
Компанії Airways та компанії, що входять до ланцюга поставок,
використовують великі дані для оптимізації операцій. Прикладом може бути кредитна картка, яка використовує великі дані для виявлення шахрайських операцій. Google же використовує великі сховища даних про всю історію пошуків користувачів, щоб надавати найрелевантнішу рекламу для збільшення продажів [17].
Чому ж важливими є BIG DATA в управлінні сучасними організаціями?
Велика аналітика даних допомагає організаціям використовувати свої дані та використовувати їх для виявлення нових можливостей. Це, у свою чергу,
призводить до розумніших кроків бізнесу, більш ефективних операцій, вищих прибутків та щасливіших клієнтів.
У своєму звіті «Big Data у великих компаніях» директор з досліджень IIA
Том Давенпорт взяв інтерв’ю у понад 50 підприємств, щоб зрозуміти, як вони використовують великі дані [13].
Таблиця 1.5
Результати, яких компанії досягають, використовуючи BIG DATA
Результат |
Особливості |
Зниження витрат |
Великі технології передачі даних, такі як Hadoop та хмарна |
|
аналітика, приносять значні переваги за витратами на зберігання |
|
великих обсягів даних. |
Швидше і краще |
Завдяки швидкості Hadoop зі здатністю аналізувати нові джерела |
прийняття рішень |
даних, підприємства можуть негайно аналізувати інформацію - і |
|
приймати рішення на основі того, що вони дізналися. |
Нові товари та |
Завдяки можливості оцінювати потреби клієнтів за допомогою |
послуги |
аналітики з’являється змога дати клієнтам те, що вони хочуть. |
|
|
|
|
|
17 |
Таким |
чином, |
можна |
зробити |
висновок, |
що |
аналіз даних розвивався ще з моменту появи обчислень. Зі збільшенням обсягу зібраних даних нові методи застосування аналізу впроваджуються на кожному етапі з необхідності. Оскільки збирання та обчислення даних стає ще дешевшим, то їх використання стає значним акселератором для ведення бізнесу, а також і для управлінської діяльності. Аналітика BIG DATA дає можливість значно спростити менеджмент в межах сучасних організацій та допомагає їм ефективно вирішувати актуальні завдання.
1.3.Особливості застосування BIG DATA в HR менеджменті.
У сучасних умовах ефективне ведення бізнесу прямопропорційно залежить від людей, які в ньому працюють, тому левова частка успіху знаходиться під впливом роботи людських ресурсів. Саме вміння керувати кадрами може поліпшити ситуацію цілої організації, нові тренди в управлінні персоналом наполегливо диктують якомога більше спрощення всіх HR-
процесів з допомогою діджиталізованих інструментів, різноманітність їх є надзвичайно широкою.
Big Data - це соціально-економічний феномен останнього десятиліття. Він являє собою величезний обсяг структурованої або неструктурованої інформації [21]. Завдяки сучасним програмним інструментам обробка даних такого масштабу стала реальністю, а результати аналізу надвеликих масивів інформації використовуються в пошуку вигідних бізнес-рішень.
Використання Big Data в HR вважається одним з десяти топових трендів, і
популярність даного напрямку тільки зростає. За результатами дослідження,
проведеного фахівцями аудиторської компанії KPMG, Big Data кейси використовуються приблизно в 60% HR-департаментів організацій по всьому світу. Більше 70% учасників дослідження роботодавців вважають, що вже в найближчі роки застосування «великих даних» позитивно позначиться на
18
прибутку компаній. Даних, аналізом яких може займатися HR-служба, в
кожної компанії більш ніж достатньо [22].
Грамотний аналіз великого обсягу інформації дозволяє отримати користь з відомостей про: особистісні й професійні якості співробітників; особливості проходження випробувального терміну; працевлаштування та звільнення,
причини, за якими працівники приймаються в штат і залишають компанію;
тривалості та особливості протікання періоду адаптації; процеси оцінки і навчання персоналу; продуктивності праці і т.д.
На підставі результатів аналізу даних HR-системи можна виявити певні закономірності: встановити причини плинності кадрів, побудувати графік сезонного зростання або спаду різних кадрових процедур, визначити найбільш ефективних і талановитих співробітників, спрогнозувати завантаження рекрутерів на найближчі місяці або роки. Але для всебічного та об'єктивного аналізу бізнес-процесів знадобляться і дані, отримані з інших джерел: бази продажів, маркетингової та бухгалтерської електронної звітності, юридичних і фінансових програм. Комплексний підхід дозволяє робити коректні висновки про наявність прихованих проблем і невиправданих витрат в управлінні бізнесом [15].
Автоматизація HR-процесів розширює можливості менеджерів. Прогрес,
який можна спостерігати вже зараз: якщо раніше один HR-менеджер обслуговував до 500 співробітників, то зараз, завдяки сучасним програмним продуктам, цей показник виріс до 1500-1800 осіб. Тому є сенс скористатися пропозиціями навчальних центрів і консалтингових компаній, що пропонують вивчити основи Big Data. Існує певна помилкова думка, що існує якийсь цілісний продукт, який називається Big Data, але це не так. Цей термін означає вміння керувати даними. Вони допомагають зараз HR-службам вести статистику. Скажімо, враховують звільнення, вказують причину, фіксують, до якої категорії відноситься саме цей випадок звільнення з компанії, а потім на підставі цього розраховують плинність [26].
19
Багато компаній вже готові застосовувати інноваційні технології в практичній роботі. Звичайно, складну багаторівневу задачу така програма не вирішить, але зате їй можна доручити рутинні операції, що віднімають у кадровиків і рекрутерів масу часу: підбір резюме з сайту вакансій по заздалегідь заданим параметрам; автоматичне обзвонювання підходящих кандидатів; відповіді на прості запитання претендентів про пропоновану роботу; допомога в заповненні електронних анкет; проведення опитувань і збір інформації.
Очевидний плюс технології - оптимізація процесів підбору та відбору кандидатів, адже такий робот здатний обдзвонювати тисячі претендентів одночасно. Компанія «АльфаLED», в 2016 році презентувала робота-андроїда
Kiki з вбудованим екраном. Робот Kiki вміє виконувати базові функції промоутера і рекрутера: вітати відвідувачів, проводити анкетування з автоматичною передачею зібраних даних на комп'ютер HR-фахівця [26].
За рахунок автоматизації окремих процесів в рази збільшується швидкість перегляду, аналізу та відбору резюме. Відповідно, скорочується час найму, економляться робочі години співробітників HR-департаменту. Замість найпростіших доручень з масового підбору, вони виконують більш складну роботу, пов'язану з адаптацією, навчанням і розвитком персоналу.
Роботодавець повинен розуміти, що автоматизація рутинних робочих операцій вимагає від HR-менеджерів додаткових компетенцій, зокрема,
аналітичних навичок і вміння користуватися спеціалізованими програмами.
Працівники, які впродовж багатьох років практикують управління людськими ресурсами, усвідомлюють, наскільки важливо покладатися на аналітику даних для ефективного та швидкого проведення повного циклу рекрутингу.
З постійно зростаючим прогресом технологій фахівці з людських ресурсів почали застосовувати більш ефективні та діджиталізовані напрямки для кращого управління персоналом, серед них й аналіз даних [14].
|
|
20 |
|
|
Таблиця 1.6 |
|
Переваги використання великих даних для цілей HR |
|
|
|
|
Перевага |
|
Характеристика |
Зниження |
вартості |
Неправильно обраний працівник може коштувати компанії |
неефективного |
набагато більше, ніж його зарплата та пільги. На додаток до цього, |
|
найму |
|
витрати на набір, витрати на навчання, втрату продуктивності |
|
|
праці та негативні відгуки клієнтів. |
Збільшення |
рівня |
За допомогою технології великих даних алгоритми, створені |
утримання |
|
консультантами з великих даних, як правило, призначають людей, |
працівників |
|
вивчаючи діяльність в Інтернеті, оновлення профілю, історію |
|
|
зайнятості, результати роботи та дані про оплату праці. Можна |
|
|
знайти системи, що відзначають цінного працівника, це означає, |
|
|
що настав час для підвищення або потрібна більш складна роль |
|
|
або ще якась підготовка, щоб запобігти його звільненню. |
Прогнозування |
Застосовується аналітична модель HR, яка використовує існуючі |
|
ефективності роботи |
профілі успішних кандидатів для створення профілів ідеальних |
|
працівників |
|
виконавців. Кінцева мета - розробити цільовий інструмент для |
|
|
head-huntering, який зможе надсилати персоналізовані |
|
|
повідомлення потрібному кандидату. |
|
|
|
Поліпшення |
пакетів |
Слідом за страховими компаніями роботодавці збирають дані про |
пільг для персоналу |
персонал та кандидатів, пов’язані зі здоров’ям. Як результат, за |
|
|
|
допомогою досягнутих результатів можна створити більш |
|
|
привабливі та корисні пакети. |
Юридичні та етичні |
Конфіденційність є однією з головних проблем, коли великі дані є |
|
питання |
|
метою, тому їх важливість є очевидною. |
Використання великих даних для цілей HR означає [18]:
1.Зниження вартості неефективного найму. За допомогою HR-
аналітики можна спостерігати значне зниження вартості поганих найму.
Неправильно обраний працівник може коштувати компанії набагато більше,
ніж його зарплата та пільги. На додаток до цього, витрати на набір, витрати на навчання, втрату продуктивності праці та негативні відгуки клієнтів - лише кілька прикладів того, що може зробити неправильна людина в неправильному місці.
2. Збільшення рівня утримання працівників. Якщо Ви наймаєте когось, Ви витрачаєте на нього значну кількість часу, енергії та грошей, і що відбувається, коли він чи вона вирішує звільнитися? Ви починаєте шукати нового кандидата і весь цикл повторюється. За допомогою технології великих даних алгоритми, створені консультантами з великих даних, як правило,