- Тип
- Эксклюзив
- Категория
- Бизнес
- Дата публикации
Великі дані для малих компаній: як і навіщо аналізувати?
На початку 1980-х британський економіст Рональд Коуз жартома сказав: "Якщо дані достатньо довго мучити, природа врешті-решт зізнається".
З тих пір пройшло лише 35 років. Відбувся експоненційний розвиток технологій збору і збереження даних. Вартість збереження одного гігабайта даних впала з 85 000 доларів в 1985 році до 2 центів в 2016.
Сьогодні "мучити" данні стало значно дешевше, ніж три десятиріччя тому. Але найголовніше — "зізнання природи" несе в рази більше вигід цікавому і спостережливому досліднику, ніж у часи Коуза, адже дані стали не лише дешевшими, але і різноманітнішими, і актуальнішими.
Мало хто до цього часу не чув про big data (великі данні). Можливо, перша реакція на цей термін — це данні, які займають багато місця. Але це не зовсім так. Big data характеризується трьома V: volume (об"єм), velocity (швидкість, актуальність) і variety (різноманіття).
Великий об"єм дозволяє досліднику зменшити статистичну похибку і підвищити точність аналітичних висновків. Велика швидкість оновлення забезпечує актуальність висновків. А велике різноманіття розширює коло питань, які можна дослідити і покращує якість аналітичних моделей завдяки тому, що враховується велика кількість факторів.
Але отримання даних — лише третина справи.
Для отримання якісної аналітики потрібні ще три чарівних компоненти.
Перший — це інструменти обробки та аналізу даних. Для вирішення простих аналітичних задач може бути достатньо (і на подив, в більшості випадків так і є) звичайного Excel-a. А ось для роботи з петабайтами даних (1 млн гігабайтів чи 1 тис. терабайтів) знадобляться більш потужні інструменти як обробки (наприклад Hadoop, Spark або Teradata), так і аналізу (приміром, R, MatLab, SAS, JasperSoft чи Tableau).
До речі, петабайт даних — це вже не так багато в сучасному світі. Google обробляє 26 петабайтів даних в день, а крізь мережі американського провайдера AT&T щодня проходить 2.5 петабайта трафіку.
Другий компонент — це аналітики BI (business intelligence). Це ті, хто, як кажуть англомовні науковці, "масажують" дані, отримуючи з них відповіді на питання, які є цікавими для бізнесу.
Нарешті, четвертий компонент — це бізнес-релевантне питання. Дані, інструменти, люди — все підкоряється одній цілі — дати відповідь на питання, яке дозволить бізнесу стати більш прибутковим, отримати конкурентну перевагу або вийти на нові ринки.
Без бізнес-релевантного питання робота з даними перетворюється на дорогу іграшку для ботанов-аналітиків.
Багато хто вважає, що зиск від роботи з даними можуть отримати лише компанії-гіганти.
Я дивлюсь на це по-іншому. Якщо велика компанія не використовує в повному обсязі ті дані, які у неї є — це злочин проти її власників. Коли дані не використовує маленька компанія — це недалекоглядність. Практика показує, що і малі бізнеси можуть використовувати аналітику даних ефективно і отримувати достатньо привабливі дивіденди від інвестицій в аналітику.
Зоопарк Point Defiance Zoo в містечку Такома, США із чисельністю працівників 100 людей. Компанія залучила IBM та команду аналітиків для того, щоб відстежити взаємозв"язок між відвідуваністю зоопарку та погодними умовами. Отримана модель дозволила з точністю до 10% прогнозувати кількість відвідувачів в залежності від прогнозу погоди і в залежності від цього змінювати кількість працівників на чергуванні.
Натхненне успіхом, керівництво зоопарку зробило аналіз відвідувачів і провело таргетовані дисконтні кампанії в місцях найбільшого їх скупчення. Інвестувавши в проект 4 тис. доларів, зоопарк отримав збільшення продажів річних абонементів на 60 тис. доларів лише протягом першого року.
Американський агрогігант John Deere, шведський залізничний перевізник Stockholmståg, китайський HR-стартап Seedlink — це далеко не повний перелік компаній, які на практиці довели, що вихлоп аналітики не залежить ані від сектора, ані від розміру компанії.