Dane z NPS – skuteczne narzędzie do optymalizacji komunikacji marketingowej

Badanie NPS (Net Promoter Score) jest znane już od blisko 20 lat. Opisane w artykule Harvard Business Review  przez Fredericka F. Reichhelda spotkało się z pozytywnym odbiorem marketerów i przyjęło się w wielu branżach. Szacuje się, że nawet 2/3 największych amerykańskich przedsiębiorstw (z listy Fortune 1000) wykorzystuje NPS. Bazowa wersja badania obejmuje tylko jedno proste pytanie: Na ile prawdopodobne jest, że – w skali od 0 do 10 –  polecisz firmę swojemu znajomemu?

Obrazek posiada pusty atrybut alt; plik o nazwie dsl1.jpg

Respondenci, którzy udzielają odpowiedzi 9 lub 10 są określani mianem promotorów. Są oni ambasadorami marki. Warto o nich zabiegać, ponieważ każdy z nich poleca markę nawet 3 kolejnym osobom. Oceniający w przedziale 0-6 to detraktorzy – niezadowoleni klienci zazwyczaj przekazują swoją opinię 9 innym osobom. Oceny 7 i 8 są uznawane za neutralne i pomija się je przy ustalaniu ostatecznego wyniku.

Narzędzie oceny lojalności klientów NPS ma kilka istotnych zalet. Przede wszystkim należą do nich względnie prosta forma realizacji badania, łatwość udzielenia odpowiedzi przez klienta – krótka ankieta i proste pytanie – a także nieskomplikowany sposób obliczania wyniku. Co równie ważne, wykazano istotną korelację pomiędzy wskaźnikiem NPS a stopą wzrostu przychodów – przykłady dla różnych branż można znaleźć m.in. we wspomnianym wcześniej artykule Reichhelda. Analizy przeprowadzone na polskim rynku pokazują związek między oceną NPS konsumenta a jego zachowaniami zakupowymi, a nawet skłonnościami do wchodzenia w interakcje z marką. Jedną z takich analiz chcemy przybliżyć w dzisiejszej odsłonie cyklu „We love data, so let’s date”.

W tym artykule skupimy się na możliwościach, jakie daje analiza odanonimizowanych odpowiedzi udzielanych w badaniu NPS. Przy czym warto podkreślić, że brak anonimowości oznacza tutaj nie tyle znajomość dokładnych danych osobowych respondenta, co raczej możliwość śledzenia jego kolejnych interakcji z marką, decyzji zakupowych i łączenia ich z oceną NPS. Czy da się jednoznacznie określić, naile wiedza o nastawieniu konsumenta do marki wyrażonym w ankiecie NPS może pomóc w optymalizacji i personalizacji komunikacji marketingowej?

Badanie przeprowadzone przez Data Science Logic

Przedstawione wyniki pochodzą z badania zrealizowanego na próbie ponad 20 tysięcy uczestników programu lojalnościowego jednego z największych retailerów w Polsce. Pod uwagę braliśmy zachowania uczestników i ich interakcje z marką w okresie 6 miesięcy po wypełnieniu ankiety. Dzięki rozbudowanemu systemowi identyfikacji konsumenta możliwe było śledzenie działań uczestników w różnych kanałach obejmujących m.in. zakupy w sklepach stacjonarnych, zakupy w sklepie internetowym, wejścia na stronę internetową marki, interakcja z mailingami (otwarcia, kliknięcia) i SMS-ami, a także interakcje z reklamami digital wyświetlanymi na stronach zewnętrznych.

Ogólny schemat przepływu danych dotyczących konsumenta

Ogólny schemat przepływu danych dotyczących konsumenta

Wnioski z opisywanego badania potwierdzają przytaczane wcześniej obserwacje i tezy o zdecydowanie większej wartości klienta, który przejawia pozytywny stosunek do marki. Wpływ na większą wartość klienta-promotora ma także jego otwartość na działania komunikacyjne prowadzone przez markę. Promotorzy w porównaniu z detraktorami cechowali się o 12% wyższym wskaźnikiem click rate. Byli więc wyraźnie bardziej skłonni do zapoznawania się z treściami zawartymi w newsletterze oraz reagowania kliknięciami. 

Obrazek posiada pusty atrybut alt; plik o nazwie dsl3.jpg

Aby ułatwić analizę wyników przeprowadzonego badania, liczby na powyższym wykresie oraz na kolejnych prezentowanych w artykule zostały zindeksowane w taki sposób, że wartości badanej cechy dla detraktorów ustalono na poziomie 100, a jej wartość dla promotorów jest proporcjonalnie wyższa lub niższa.

Wyższa klikalność w mailingi linkujące do strony www lub e-commerce przekładała się na większą – nawet o 37%  – liczbę sesji na stronie www.

Obrazek posiada pusty atrybut alt; plik o nazwie dsl4.jpg

Jak się okazuje, promotorzy znacznie aktywniej reagowali na przekaz  marki w mediach zewnętrznych. W porównaniu z detraktorami, cechowali się blisko 40% wyższym zainteresowaniem po ekspozycji na reklamę digital.

Obrazek posiada pusty atrybut alt; plik o nazwie dsl5.jpg

Pozytywne nastawienie do marki, znacząca otwartość na komunikację newsletterową oraz większa skłonność do reagowania na przekaz reklamowy przekładają się na wyższe wydatki klientów. W okresie 6 miesięcy po wypełnieniu ankiety promotorzy wydali więcej o 11% w porównaniu z detraktorami marki.

Obrazek posiada pusty atrybut alt; plik o nazwie dsl6.jpg

Warto zauważyć, że różnica ta jest efektem zarówno większej częstotliwości, jak i wyższej przeciętnej wartości pojedynczej transakcji.

W jaki więc sposób  można wykorzystać wiedzę wynikającą z analizy NPS do skuteczniejszej komunikacji?

Jednym z pomysłów wartych zweryfikowania na jakie zdecydowaliśmy się w Data Science Logic było dostosowanie częstotliwości ekspozycji na media płatne do ostatniej oceny NPS konsumenta. Trop ten okazał się interesujący. Z przeanalizowanych danych wynikało jednoznacznie, że promotorzy i detraktorzy w różny sposób reagują na nasilającą się intensywność komunikacji. Zupełnie inaczej wygląda ich krzywa przesycenia reklamami. W przypadku promotorów zwiększenie częstotliwości ekspozycji początkowo powoduje wzrost responsu – przeciążenie przekazem reklamowym osiągnięte zostało przy 6 kontaktach. Dla detraktorów natomiast początkowy efekt zwiększania liczby kontaktów był ujemny. Dopiero po przekroczeniu 8 wyświetleń efekt był porównywalny z grupą promotorów.

Obrazek posiada pusty atrybut alt; plik o nazwie dsl7.jpg

Wykorzystując te obserwacje do optymalizacji liczby wyświetleń, można przyjąć 6 jako limit dla promotorów. Jeżeli w tym czasie nie przekonaliśmy promotora, należy odpuścić dalsze próby. Oszczędzamy w ten sposób budżet i zmniejszamy ryzyko przesycenia konsumenta reklamami – tym samym nie dopuszczając do przejścia promotora na stronę niezadowolonych klientów. Zupełnie inne wytyczne przyjmujemy natomiast dla detraktorów. W ich przypadku opłaca się dążyć do osiągnięcia 8 i więcej wyświetleń. Zastosowanie opisanej optymalizacji pozwoliłoby znacząco zredukować liczbę kontaktów i oszczędzić nawet 80% budżetu, przy takim samym (a nawet potencjalnie nieco lepszym – o 4%) efekcie. W naszej analizie przyjęliśmy założenie, że wpływamy tylko na częstotliwość komunikacji, wszystko inne pozostawiając bez zmian.

Dalsze zwiększenie efektywności można uzyskać, testując zróżnicowanie także treści kierowanych do konsumenta w zależności od jego ostatniej oraz wcześniejszych ocen NPS. Dotyczy to zarówno reklamy płatnej, jak i komunikacji w oparciu o media własne: mailing, sms, personalizacja strony www.

Obrazek posiada pusty atrybut alt; plik o nazwie dsl8.jpg

Podsumowując przedstawione wyniki, należy zaznaczyć, że są one zależne od uwarunkowań specyficznych dla konkretnej firmy m.in. od branży, częstotliwości zakupów, charakteru i aktywności konkurencji, cech konsumentów. Warto zatem przeprowadzić podobną analizę wykorzystując własne dane. Do tego potrzebne będziebadanie NPS, prowadzone systematycznie w sposób umożliwiający połączenie odpowiedzi z identyfikatorem konsumenta oraz szeroki wachlarz kanałów, w których śledzone są interakcje konsumenta z marką. Im szerszy zakres punktów styku z marką, w których możemy rejestrować zachowania konsumenta tym większe możliwości optymalizacji działań. Dane z badania NPS mogą stanowić wartościowe uzupełnienie, otwierając dodatkowe pola.

Wskaźnik Net Promoter Score to więcej niż tylko pytanie. Dzięki niemu możemy lepiej poznać naszych klientów. NPS jest silnym wskaźnikiem lojalności i jak się okazuje może posłużyć do optymalizowania komunikacji marketingowej. Zadanie jednego prostego pytania przyczyni się do redukcji kosztów na media płatne i docierania z właściwym przekazem do właściwych klientów – o ile odpowiedzi, które uzyskamy, połączymy z innymi, cennymi informacjami o naszych klientach.

Cechy efektywnej/efektywnego data scientist

W ostatnich latach osoby zajmujące się Data Science to jedni z najbardziej poszukiwanych specjalistów na rynku pracy. Zapotrzebowanie na data scientist wykazują już nie tylko branże z obszaru IT, ale także firmy, które do tej pory nie miały do czynienia z analizą dużych zasobów informacji.  

Jakie kompetencje powinien posiadać data scientist? Co powinno go charakteryzować? Czy są kompetencje, bez których nie można wykonywać tego zawodu? Najlepsi specjaliści opisywani są pewnymi cechami, które wyróżniają ich spośród tłumu zwykłych analityków.

Gdy myślimy o pracownikach z tej dziedziny zwykle patrzymy na kwalifikacje analityczne. O wiele rzadziej wspomina się o zdolnościach „miękkich”, których posiadanie także w tej branży jest niezwykle ważne. data scientist zanim rozpocznie pracę, musi opanować kilka istotnych umiejętności, bez których praca w tej interdyscyplinarnej dziedzinie nie byłaby możliwa.

Oto nasza (subiektywna) lista cech, które każdy dobry data scientist powinien posiadać, a zaczniemy ją trochę przewrotnie od czegoś, o czym raczej mało kto wspomina na początku od zdolności komunikacyjnych.

KOMUNIKACJA

W pracy data scientist niezwykle ważne jest umiejętne komunikowanie. Kluczem do sukcesu jest efektywna komunikacji podczas każdego etapu projektu. Specjalista musi trafnie porozumiewać się podczas definiowania problemu, analizowania go, w trakcie jego rozwiązywania, a także, jak się okazuje, tuż po jego rozwiązaniu – w trakcie prezentacji innym członkom zespołu. Trzeba umieć rozmawiać zarówno z innymi data scientists, jak i osobami, które nie znają dobrze branży. Wyjaśnienie danych nieanalitycznym członkom zespołu to zwykle najbardziej skomplikowany etap procesu komunikacji podczas całego projektu – trzeba to robić zrozumiale i używać niewyszukanego języka, tak aby członkowie zespołu bez przygotowania technicznego mogli przyswoić temat. Ważne jest, aby umieć tłumaczyć skomplikowane rzeczy w zrozumiały sposób. Data scientist musi pamiętać, aby dostosowywać sposób komunikacji do możliwości i potrzeb swojego odbiorcy.

ZNAJOMOŚĆ ALGORYTMÓW I METOD

Teoretyczna i praktyczna znajomość algorytmów to także solidne podstawy pozwalające na rozumienie i uczenie się nowych podejść. Naukowcy zajmujący się analizą danych powinni mieć łatwość w przyswajaniu nowych metod. Big data to temat, który właśnie przeżywa rozkwit i z pewnością odkryje przed nami jeszcze wiele swoich możliwości. To co znamy dziś, jutro może okazać się zdezaktualizowane przez nowe rozwiązania, dlatego efektywny data scientist powinien z łatwością wykorzystywać nowe, nieznane dotąd dla siebie metody i rozwiązania. Studiowanie i praktyczne wykorzystanie algorytmów rozwija intuicję, co przyczynia się do efektywniejszego rozwiązywania problemów.

UMIEJĘTNOŚCI PROGRAMISTYCZNE

Być może wydaje się to oczywiste, ale jest to podstawa, o której nie można zapomnieć, kompletując listę umiejętności data scientist. Konieczna jest dobra znajomość przynajmniej jednego języka programowania: R lub Python, a także, co ważne, posiadanie zdolność do szybkiego przyswajania nowych, uczenia się i wykorzystywania nieznanych do tej pory narzędzi. Branża data science szybko się rozwija, dlatego nie można przestawać się szkolić. Umiejętności programistyczne, które posiada data scientsit powinny stale się poszerzać. Świat narzędzi data science zmienia się wyjątkowo szybko. Dobry data scientist powinien mieć chęć ciągłego uczenia się
i zdobywania nowych kwalifikacji.

Co więcej, jest to cecha wyróżniająca data scientist od zwykłego analityka. Swoje rozwiązania musi zaprogramować tak, aby działały w sposób automatyczny. Analizy ogromnych zasobów danych nie da zrobić się na kartce papieru, dlatego znajomość któregoś
z języków programowania jest niezbędna, aby móc wykonywać pracę efektywnie.

ZNAJOMOŚĆ SQL

Kolejną cechą, powiązaną z poprzednią umiejętnością, jest znajomość języka zapytań SQL. Można się zastanawiać, czy nie powinno być to potraktowane po prostu jako jeden z języków programowania. Chcę jednak podkreślić jego szczególną rolę. Pomimo rozkwitu baz NoSQL i różnorodnych alternatywnych sposobów przechowywania dużych zbiorów danych, to jednak SQL jest wciąż niezastąpiony w wielu rozwiązaniach. Stanowi najbardziej efektywnych sposób pobierania i przygotowania do dalszej pracy. Znajomość SQL jest to niezbędną kompetencją data scientist ze względu na częstą pracę z ogromnymi bazami danych.

CIEKAWOŚĆ

Data scientist musi być ciekawski, zadawać pytania i szukać odpowiedzi, kopać cały czas głębiej. Jego cechą powinna być otwartość na nowe doświadczenia i stałe poszukiwanie lepszych, nowocześniejszych rozwiązań. Branża data science zmienia się z dnia na dzień. Powstają coraz to lepsze rozwiązania i ciekawsze metody. Pracując w tym zawodzie, trzeba stale rozwijać swoje umiejętności, aby któregoś dnia nie okazało się, że przespaliśmy pewną innowację, bez znajomości której nie jesteśmy już tak wydajni, jak kiedyś. W branży liczy się efektywność, wydajność i prostota rozwiązań, dlatego niezaspokojona ciekawość to coś, co towarzyszy każdemu dobremu data scientist.

SCEPTYCYZM

 Kolejnym elementem, który powinien cechować specjalistę od danych to zdrowy sceptycyzm. Prowadzi on do rygorystycznego podejścia do wykonywanych analiz, ich weryfikacji, dokładnego sprawdzenia czy dokonane „odkrycie” nie wynika z błędu w danych, w zastosowanej metodyce, czy interpretacji wyników. W życiu niczego nie można być pewnym, dlatego data scientist powinien skrupulatnie podchodzić do tego, co robi, a na wszystkie wyniki patrzeć z dystansem. Sceptycyzm pozwala na krytyczne podejście nawet do własnych efektów pracy, co może wyeliminować możliwość wystąpienia błędu.

PODEJŚCIE BIZNESOWE

Aby zrozumieć problem, który data scientist musi rozwiązać, dobrze jest mieć pojęcie o biznesie, którego zapytanie dotyczy. Zrozumienie szerszego kontekstu oraz uwarunkowań, w jakich działa biznes jest często konieczne do uzyskania najlepszego efektu. Bez tego trudno o dobranie odpowiedniej metody do rozwiązania problemu.

Podsumowując, efektywny data scientist musi łączyć w sobie umiejętności analityczne, programistyczne, biznesowe,
a także kompetencje miękkie, takie jak łatwość komunikacji. Nie bez powodu, data scientist to najbardziej pożądani specjaliści na rynku pracy. Nie jest łatwo spełnić wszystkie wymagania, ale wielu z nich można nauczyć się w ciągłym doskonaleniu swojej pracy. Jeżeli jednak masz wszelkie predyspozycje do bycia data scientist, możesz przyczynić się do innowacyjnego rozwiązywania problemów w wielu branżach, a znalezienie ciekawej i rozwojowej pracy nie będzie stanowiło żadnego problemu.

O ile więcej wart jest klient, który zaufał?

Na to pytanie w trakcie Forum IAB 2020 próbwaliśmy znaleźć odpowiedź wraz z Marią Galas (IKEA Group) oraz Adamem Wysockim (LVLUP Media).

To, że klient, który ufa marce jest wart więcej – to oczywiste. Pytanie o ile więcej jest wart? 5-20-100? Na to pytanie dotychczas nie było precyzyjnej odpowiedzi, a my postanowiliśmy ją podać. Wyzwanie było o tyle duże, że podjęliśmy próbę zmierzenia czegoś, co z definicji jest trudne do zmierzenia – czyli zaufania.

Prezentacja opierała się o wyniki analiz zachowań rzeczywistych klientów uczestniczących w programie IKEA Family. Przy założeniu, że najwyższą formą zaufania jest polecanie marki znajomym, przeanalizowaliśmy różnice w zachowaniach dwóch grup klientów: promotorów i krytyków  marki. Podstawę do analizy stanowiły dziesiątki tysięcy paragonów, interakcje z tysiącami mailingów oraz z reklamami w mediach płatnych. Klienci, którzy ufają okazali się bardziej skłonni do powtórnych zakupów, wracali częściej i wydawali więcej. Dodatkowo ROI z inwestycji w kontakty reklamowe z promotorami było wyższe. Podobny wpływ na tych klientów można było uzyskać niemal 4-krotnie mniejszą liczbą odsłon.

Wnioski z analizy potwierdziły tezę, że o zaufanie klienta warto dbać, a także warto je mierzyć. Dzięki temu możliwe jest lepsze przewidywanie zachowań klienta oraz dostosowywanie komunikacji do jego potrzeb i emocji. 

Zaufanie do marki przekłada się na sprzedaż, czyli jej konkretne wyniki finansowe oraz na to, ile wydaje konsument. A jest to ważne przynajmniej z 2 powodó:

1. Klienci, którzy nam ufają wydają częściej i więcej

2. Budując komunikację do klienta, który nam ufa, mamy niższe koszty, czyli możemy uzyskać efekt, przy mniejszych nakładach.

A klient, który zaufał to największa wartość dodana marce.

previous arrow
next arrow
Slider

Dlaczego ważny jest transfer know-how i efektywna komunikacja między klientem a firmą data science?

Machine learning i data science rewolucjonizują wszystkie branże i stają się istotnym elementem przewagi konkurencyjnej, a nawet stanowią o przetrwaniu na rynku. Dzisiaj nikt nie poddaje już chyba w wątpliwość sensu
i konieczności wykorzystywania danych przez przedsiębiorstwa. Ewentualne dyskusje, jakie pojawiają się w obszarze data science, dotyczą modelu, w jakim należy budować kompetencje, a nie czy w ogóle rozpoczynać tę przygodę.
Ścierają się tu dwa podejścia. Jedno zakłada konieczność skupienia się na tworzeniu wewnętrznego zespołu. Drugie stawia na outsourcing. Oba podejścia mają swoje wady i zalety. Oba mają swoich przeciwników i zwolenników.

Celem tego artykułu nie jest roztrząsanie argumentów za i przeciw outsourcingowi. Chciałbym skupić się na jednym
z jego aspektów, który często uchodzi uwadze w dyskusjach.  Uważam, że właściwie sformułowane pytanie nie brzmi „czy” outsourcować ale „jak” to robić i na co zwracać uwagę.

Istotę problemu najlepiej obrazują pewne sytuacje „z życia wzięte”, z którymi sami nie raz mieliśmy do czynienia. Wyobraźmy więc sobie pewną rozmowę z jednym z klientów – menedżerem odpowiedzialnym za reklamę:

— Mamy model atrybucji i przy jego pomocy optymalizujemy budżety

— Świetnie. Wasz zespół go budował?

— Nie. Mieliśmy zewnętrznych konsultantów.

— Ale wiecie jak ten model jest zbudowany? Jak działa?

— Niestety nie.

Lub nieco inny przykład:

Rozmowa pomiędzy menedżerem odpowiedzialnym za marketing a firmą zewnętrzną, dostarczającą usługę budowania modeli predykcyjnych:

— … i bardzo bym nam zależało, żeby nasz analityk współpracował z wami przy budowie modelu.

— Dlaczego?

— Chcielibyśmy rozumieć, jak to działa i rozwijać nasze kompetencje w tym obszarze…

— Hmm… Nie widzę takiej możliwości.

Niestety takie sytuacje to wciąż częsty przypadek. Konsultanci w obawie przed tym, że wyedukują klienta, staną się niepotrzebni oraz utracą zlecenia, czują niechęć przed ujawnieniem swojego know-how.  Może się wydawać, że przynajmniej częściowo te obawy są uzasadnione.  Z mojego doświadczenia wynika, że prawie każda zrealizowana inicjatywa data science otwiera drzwi do kilku kolejnych. 

Z drugiej strony popatrzmy na sytuację oczami klienta, czyli w tym wypadku firmy poszukującej wsparcia w wykorzystaniu danych w swoim biznesie. Czy może ona sobie pozwolić na wyoutsorcowanie w 100% czegoś,
co ma stanowić przewagę konkurencyjną?

Cóż, odpowiedź na to pytanie jest taka sama, jak na pytanie czy producent samochodów może całkowicie wyoutsorcować dział projektujący nowe modele… Prawdopodobnie może, ale raczej nie powinien.

Wraz ze zmianą postrzegania przez zarządzających roli data science i wzrostu świadomości znaczenia rozwiązań opartych o dane dla realizacji celów firmy, rośnie świadomość konieczności budowania wewnętrznego know-how. Szukając przyspieszenia projektów data science lub optymalizacji kosztów, przedsiębiorstwa rozważają korzystanie
z usług zewnętrznych. Szczególnie wartościowi są partnerzy gotowi dzielić się swoją wiedzą. Zaawansowane
projekty łatwiej będzie realizować z firmą, która postrzega rozwój klienta jako szansę na wzmocnienie współpracy. 

W jaki więc sposób wybrać partnera, który będzie chciał dzielić się swoją wiedzą? Czy da się sprawdzić poziom gotowości dostawcy do transferu know-how? Zadając odpowiednio wcześnie właściwe pytania, można zorientować się jakie podejście do transferu know-how ma nasz potencjalny partner w biznesie. Uzyskanie odpowiedzi pomoże w dokonaniu bardziej świadomego wyboru.

W jaki sposób udokumentujecie opracowane rozwiązanie i sposób dojścia do niego? – brak odpowiedniej dokumentacji uniemożliwia albo znacząco utrudnia dalszy rozwój narzędzia.

W jaki sposób nasi pracownicy  będą mogli włączyć się w projekt?  – Możliwość zaangażowania zależy od charakteru projektu i kompetencji klienta. Generalnie jednak im większe zaangażowanie ze strony pracowników klienta tym większa szansa na sukces projektu, udaną implementację rozwiązania w praktyce oraz transfer wiedzy z obszaru data science.

W jakiej postaci przekażecie nam rozwiązanie? – Oprócz samego efektu prac warto otrzymać także dokumentację
a najlepiej również kody źródłowe, które pozwolą na dalszy rozwój i usprawnienia rozwiązania.

Jakie szkolenia z wykorzystania rozwiązania przewidujecie  w projekcie? – warto już na początku współpracy wiedzieć jakie szkolenia są zaplanowane, aby upewnić się, że będą wystarczające.

Jaka część waszych projektów to inicjatywy jednorazowe, a na ile jesteście nastawieni na długofalową współpracę?  
– pytanie, które zweryfikuje podejście i chęć firmy do dalszej współpracy.

Klienci coraz częściej oczekują, a wręcz domagają się, włączania ich analityków w proces budowy i testowania rozwiązań data science. Ten trend z pewnością będzie się nasilał. Outsourcing połączony z transferem know-how może zaś stać się złotym środkiem i rozstrzygnięciem dylematu – in-house czy outsource, łącząc to co najlepsze z obu podejść.