Big Data як один з головних елементів сучасного маркетингу
Анотація: Стаття присвячена дослідженню поняття Big Data як одного з сучасних методів дослідження цільової аудиторії для рекламних кампаній. В ході дослідження проаналізовано характеристики даних, що збираються, зберігаються, обробляються та аналізуються за допомогою методу Big Data. В статі описані основні елементи статистичного та математичного інструментарію, які використовуються в рамках технології Big Data. Методом дослідження було розглянуто як саме використовується технологія під час маркетингового дослідження та аудиту власної діяльності. Встановлені переваги використання Big Data під час впровадження даного методу та доведені вигоди поширення технології у маркетинговій діяльності сучасного бізнесу.
Бібліографічний опис статті:
Антон Мытник. Big Data як один з головних елементів сучасного маркетингу//Наука онлайн: Міжнародний електронний науковий журнал - 2018. - №5. - https://nauka-online.com/publications/social-communications/2018/5/big-data-yak-odin-z-golovnih-elementiv-suchasnogo-marketingu/
Соціальні комунікації
УДК 007: 659.1: 316.658
Митник Антон Володимирович
студент магістратури
Інституту журналістики
Київського національного університету імені Тараса Шевченка
BIG DATA ЯК ОДИН З ГОЛОВНИХ ЕЛЕМЕНТІВ СУЧАСНОГО МАРКЕТИНГУ
Анотація. Стаття присвячена дослідженню поняття Big Data як одного з сучасних методів дослідження цільової аудиторії для рекламних кампаній. В ході дослідження проаналізовано характеристики даних, що збираються, зберігаються, обробляються та аналізуються за допомогою методу Big Data. В статі описані основні елементи статистичного та математичного інструментарію, які використовуються в рамках технології Big Data. Методом дослідження було розглянуто як саме використовується технологія під час маркетингового дослідження та аудиту власної діяльності. Встановлені переваги використання Big Data під час впровадження даного методу та доведені вигоди поширення технології у маркетинговій діяльності сучасного бізнесу.
Ключові слова: big data, цільова аудиторія, персоніфікація, реклама, маркетинг, цифровий маркетинг.
Постановка проблеми. В умовах загострення конкуренції та перенасичення інформаційного простору всеосяжне глибоке опрацювання інформації щодо ринкового середовища дає можливість компанії приймати найбільш релевантні до нього як стратегічні, так і тактичні рішення. Обсяг даних, що генерується у цифровому просторі, представляє безпрецедентні можливості отримання інформації про споживачів, конкурентів та інших учасників ринкового процесу. Виявивши закономірності в даних, зібраних за допомогою інструментів цифрового (digital) маркетингу, маркетологи можуть успішно створювати та реалізовувати маркетингову стратегію. Для зберігання, обробки та аналізу великого обсягу даних потрібен потужний технічний інструментарій. Сучасні технології Big Data дають можливість перетворення маси неоднорідних та неструктурованих даних на інформацію, що лягає в основу персоніфікованого підходу до кожного окремого клієнта. Тобто, наразі відбувається перехід від звичного сегментованого маркетингу, який будується зазвичай на основі вибіркових та не завжди об’єктивних даних, до обслуговування споживачів залежно від їх індивідуальних потреб. На даний момент в українському бізнес-середовищі технології Big Data ще не набули масового розповсюдження через високу вартість програмного забезпечення та досить високі вимоги до спеціалістів-аналітиків, хоча маркетологи усвідомлюють, що для забезпечення конкурентоспроможності їх впровадження є необхідним.
Аналіз останніх досліджень і публікацій. Тема Big Data є багатогранною та неоднозначною, тому є популярною серед спеціалістів різних сфер. Вплив Big Data на суспільні процеси та організацію бізнесу зокрема досліджували Н. Бессіс, М. Чен, В. Майєр-Шенбергер, К. Кукер та інші. Етичні проблеми, що виникають внаслідок формування великих масивів персональної інформації, доступної для компаній, вивчали К. Девіс, Т. Крейг та М. Ладлофф. Серед вітчизняних джерел – значна кількість матеріалів публіцистичного характеру в мережі Інтернет, проте відчувається нестача фундаментальних праць у цьому напрямі.
Виклад основного матеріалу. Вперше термін «великі дані» з’явився в пресі в 2008 році, коли редактор журналу Nature Кліффорд Лінч випустив статтю на тему розвитку майбутнього науки за допомогою технологій роботи з великою кількістю даних. До 2009 року цей термін розглядався тільки з точки зору наукового аналізу, але після виходу ще кількох статей преса стала широко використовувати поняття Big Data і продовжує використовувати його в даний час. У 2010 році стали з’являтися перші спроби вирішити наростаючу проблему великих даних. Були випущені програмні продукти, дія яких була направлена на те, щоб мінімізувати ризики при використанні величезних інформаційних масивів. До 2011 року великими даними зацікавилися такі великі компанії, як Microsoft, Oracle, EMC і IBM – вони стали першими використовувати напрацювання Big data в своїх стратегіях розвитку, причому досить успішно. ВНЗ почали проводити вивчення великих даних в якості окремого предмета вже в 2013 році – тепер проблемами в цій сфері займаються не тільки науки про дані, а й інженерія укупі з обчислювальними предметами.
На сьогодні поняття «великих даних» передбачає більше, ніж просто аналіз великих обсягів даних. Проблема полягає не в тому, що організації генерують значні масиви даних, а в тому, що ці дані характеризуються неоднорідністю та неструктурованістю. Типами таких даних можуть бути веб-журнали, відеозаписи, текстові документи, машинний код, геопросторові дані тощо. Усі ці дані не підлягають структуризації за допомогою єдиної бази даних та обробці традиційними методами аналізу. Вони зберігаються у численних сховищах, іноді навіть за межами організації. У результаті компанії можуть мати доступ до величезного обсягу своїх даних, але не мати необхідних інструментів для того, щоб встановити логічні взаємозв’язки між ними та перетворити на інформацію, придатну для використання в процесі прийняття важливих для бізнесу рішень [6]. Окрім цього, у сучасному світі «Інтернету всього» (Internet of Everything), де кількість та різноманітність пристроїв, підключених до глобальної мережі збільшується щодня, дані характеризуються високою швидкістю оновлення [5]. Якщо узагальнити, «великі дані» мають 5 визначальних характеристик, які ще називають «3V»:
- Volume (об’єм) – накопичена база даних охоплює настільки великий обсяг інформації, що його практично нереально обробляти та зберігати традиційними способами. Для них потрібен зовсім новий підхід та вдосконалені інструменти.
- Velocity (швидкість) – ця характеристика вказує на швидкість накопичення даних, яка постійно збільшується. Наприклад, 90 відсотків всієї інформації, якою оперує людство, зібрано за останні два роки. Також ця характеристика має на увазі швидкість обробки даних. Останнім часом збільшується попит на технології, що дозволяють використовувати обробку даних в режимі реального часу.
- Variety (різноманітність) – можливість одночасно обробляти структуровану та неструктуровану інформацію. Структурована інформація – це така, яку можна класифікувати. Наприклад, це може бути інформація з банківської бази даних, де чітко вказаний перелік клієнтів та їхні фінансові транзакції. Неструктурована інформація охоплює різноманітні масиви даних, такі як фото, відео, текстові записи та інші дані. Найкращим прикладом є соціальні мережі. Її об’єм складає приблизно 80 відсотків від всієї інформації. Неструктурована інформація потребує комплексного аналізу перед можливістю її використання.
- Veracity (достовірність) – оскільки обсяг інформації постійно збільшуються, важливе місце займає виокремлення достовірних даних. Якість зафіксованих даних може сильно відрізнятися, тим самим впливаючи на точний аналіз.
- Variability (мінливість) – невідповідність інформації ускладнює та подекуди заважає процесам обробки та управління даними [11].
До основних методів аналізу і обробки даних можна віднести наступні:
- Методи класу або глибинний аналіз (Data Mining). Дані методи досить численні, але їх об’єднує одне: використовуваний математичний інструментарій в сукупності з досягненнями зі сфери інформаційних технологій.
- Краудсорсінг. Дана методика дозволяє отримувати дані одночасно з декількох джерел, причому кількість останніх практично необмежена.
- А / В-тестування. З усього обсягу даних вибирається контрольна сукупність елементів, яку по черзі порівнюють з іншими подібними сумами, де був змінений один з елементів. Проведення подібних тестів допомагає визначити, коливання якого з параметрів мають найбільший вплив на контрольну сукупність. Завдяки обсягами Big Data можна проводити величезну кількість ітерацій, з кожною з них наближаючись до максимально достовірного результату.
- Прогнозна аналітика. Фахівці в цій галузі намагаються заздалегідь передбачити і розпланувати то, як буде вести себе підконтрольний об’єкт, щоб прийняти найбільш вигідне в цій ситуації рішення.
- Машинне навчання (штучний інтелект). Грунтується на емпіричному аналізі інформації і подальшому побудові алгоритмів самонавчання систем.
- Мережевий аналіз. Найбільш поширений метод для дослідження соціальних мереж – після отримання статистичних даних аналізуються створені в сітці вузли, тобто взаємодії між окремими користувачами і їх спільнотами
Виходячи з визначення Big Data, можна сформулювати основні принципи роботи з такими даними:
- Горизонтальна масштабованість. Оскільки даних може бути як завгодно багато – будь-яка система, яка має на увазі обробку великих даних, повинна бути розширюваної. У 2 рази зріс обсяг даних – в 2 рази збільшили кількість заліза в кластері і все продовжило працювати.
- Отказоустойчивость. Принцип горизонтальної масштабованості має на увазі, що машин в кластері може бути багато. Наприклад, Hadoop-кластер Yahoo має більш ніж 42000 машин (за цим посиланням можна подивитися розміри кластера в різних організаціях). Це означає, що частина цих машин буде гарантовано виходити з ладу. Методи роботи з великими даними повинні враховувати можливість таких збоїв і переживати їх без будь-яких значущих наслідків.
- Локальність даних. У великих розподілених системах дані розподілені по великій кількості машин. Якщо дані фізично знаходяться на одному сервері, а обробляються на іншому – витрати на передачу даних можуть перевищити витрати на саму обробку.
Тому одним з найважливіших принципів проектування BigData-рішень є принцип локальності даних – по можливості обробляємо дані на тій же машині, на якій їх зберігаємо.
Висновки і пропозиції. У сучасному світі Big data – соціально-економічний феномен, який пов’язаний з тим, що з’явилися нові технологічні можливості для аналізу величезної кількості даних. Активний розвиток інформаційних технологій упродовж декількох останніх десятиліть, що став наслідком інформаційної революції, змінив підходи до збору маркетингових даних та управління ними. Значний обсяг неоднорідних та неструктурованих даних, що накопичується в цифровому середовищі та має велике практичне значення для компаній, потребує інтелектуального підходу до їх збору, обробки та аналізу, що створює необхідність автоматизації цих процесів. Сукупність інструментів, націлених на задоволення потреб сучасних організацій у перетворенні хаотичної маси даних на інформацію, придатну для використання в процесі прийняття рішень, називається Big Data. Технологія Big Data має високу цінність у маркетинговій діяльності, тому що дозволяє компаніям регулярно отримувати детальну інформацію про своїх споживачів не як про єдину масу, а про кожного клієнта окремо. Це обумовлює перехід до персоніфікованого обслуговування клієнтів з автоматичним формуванням індивідуальної маркетингової програми для кожного споживача. Завдяки зростанню рівня релевантності інформації, що пропонують бренди споживачам, компаніям вдається значно підвищити ефективність маркетингових інвестицій. Для іноземних компаній сукупність інструментів Big Data вже перестала бути інноваційним явищем. Використання даної технології є не конкурентною перевагою, а необхідною умовою для забезпечення конкурентоспроможності. Перехід вітчизняного бізнес-середовища до управління на основі інтелектуального аналізу даних потребуватиме ще певного часу. Основними причинами затримки у впровадженні Big Data українськими організаціями є висока вартість програмного забезпечення, час, необхідний для адаптації спеціалістів до користування ним та рядом технічних проблем, що пов’язані з недосконалістю використовуваних в інструментах Big Data алгоритмів.
Література
- Что такое Big data [Электронный ресурс]. – 2015. – Режим доступу до ресурсу: https://www.buh24.com.ua/chto-takoe-big-data-kak-eto-rabotaet-i-pochemu-vse-nosyatsya-s-dannyimi-kak-s-pisanoy-torboy/?cn-reloaded=1
- Columbus L. Ten Ways Big Data Is\ Revolutionizing Marketing And Sales [Электронный ресурс] / Louis Columbus // Forbes. – 2016. – Режим доступу до ресурсу: https://www.forbes.com/sites/louiscolumbus/2016/05/09/ten-ways-big-data-isrevolutionizing-marketing-and-sales/2/#7a84a33d25cd.
- Goldfein J. Big Data & Marketing: Value, Problems, and Solutions [Электронный ресурс] / Joshua Goldfein. – 2016. – Режим доступу до ресурсу: http://www.mercurycreative.net/blog/digital/big-data-marketing.
- Kumar Pal S. 21st Century Information Technology Revolution [Электронный ресурс] / Sanjay Kumar Pal. – 2008. – Режим доступу до ресурсу: http://ubiquity.acm.org/article.cfm?id=1399619
- Visualizing the IoE [Электронный ресурс] – Режим доступу до ресурсу: http://ioeassessment.cisco.com/learn/visualizing-ioe.
- Большие данные в разных отраслях: сценарии применения [Электронный ресурс]. – 2014. – Режим доступу до ресурсу: http://www.uipdp.com/articles/2014- 10/17.html.
- Использование больших данных (big data) в маркетинговых исследованиях [Електронний ресурс]. – 2016. – Режим доступу до ресурсу: http://www.ovtr.ru/stati/bolshie-dannye-big-data-v-marketingovyh-issledovaniyah.
- Калягина Л. В. Категория «Данные»: понятие, сущность, подходы к анализу / Л. В. Калягина, П. Е. Разумов // Вестник КрасГАУ. – 2014. – №4. – С. 3–8. Дата майнинг
- Сахно А. Programmatic для “чайников”: Что такое программатик и как он работает [Электронный ресурс] / Алексей Сахно. – 2016. – Режим доступу до ресурсу: http://digitalbee.com/blog/digital-marketing/programmatic-dlya-chaynikov-chto-takoeprogrammatik-i-kak-on-rabotaet/.
- Кравчук С. Що таке Big Data [Електронний ресурс] / Сергій Кравчук // The Future. – 2017. – Режим доступу до ресурсу http://thefuture.news/bigdata .
- Эволюция маркетинговых данных [Электронный ресурс] / LPGenerator. – 2013. – Режим доступу до ресурсу: http://lpgenerator.ru/blog/2013/08/23/evolyuciyamarketingovyh-dannyh/.
Коментарі закрито.
To comment on the article - you need to download the candidate degree and / or doctor of Science