Od segmentacji do hiperpersonalizacji… wykorzystanie uczenia maszynowego w komunikacji marketingowej

Współczesny konsument jest wciąż bombardowany komunikatami. Konkurencja o coraz krótsze okresy uwagi jest krwawa i liczy się w niej wykorzystanie każdej możliwej przewagi.  W jaki sposób data science może pomóc w skutecznej walce o  dotarcie  z przekazem marki do konsumentów? Poznaj szczegóły wykorzystania uczenia maszynowego w komunikacji marketingowej.

Jak komunikacja marketingowa wyglądała kiedyś?

W pierwszych latach komercyjnego internetu, kiedy dopiero rozpoczynało się wykorzystywanie e-maili w komunikacji marketingowej, zadanie było w miarę proste. Nie było jeszcze dużej konkurencji , działał efekt świeżości, konsumenci byli bardziej skłonni otwierać i czytać wiadomości. Można powiedzieć, że do sukcesu wystarczało samo posiadanie bazy adresowej i realizowanie jakichkolwiek wysyłek. Wystarczające było stosowanie prostego modelu nieco żartobliwie określanego jako „Wszystko Każdemu Zawsze” (WKZ). Nazwa odzwierciedla tendencję do wysyłania każdej przygotowanej komunikacji do całej dostępnej bazy adresatów. Strategia ta opierała się na założeniu, że każda wysłana wiadomość w jakimś stopniu zwiększa prawdopodobieństwo pozytywnej reakcji, a koszt wysłania każdej dodatkowej wiadomości jest bliski zeru. W przypadku smsów koszt mógł być oczywiście czynnikiem ograniczającym wolumen wysyłanych wiadomości. W bardzo wielu sytuacjach radzono sobie z tym jednak w prosty sposób, proporcjonalnie zmniejszając wolumen tak, żeby wyczerpać, ale nie przekroczyć przyznanego budżetu.

Od braku segmentacji do hiperpersonalizacji

Sytuacja zaczęła zmieniać się wraz ze wzrostem liczby marek wykorzystujących kanały email i sms w komunikacji. Skrzynki odbiorcze konsumentów zaczęły „pękać w szwach”. Liczby otrzymywanych wiadomości przekraczały możliwości percepcji. Komunikacja marketingowa w wielu przypadkach zaczęła być postrzegana jako niechciana („spam”).  Przyczyniło się do tego także powszechne stosowanie wspominanego wcześniej modelu WKZ. Rolę odgrywały przede wszystkim brak dostosowania treści do specyfiki konsumenta oraz zbyt częste wysyłki. Pozornie zerowy koszt wysyłki („najwyżej klient nie otworzy”) nie zachęcał do inwestowania czasu i środków w precyzję targetowania. W kalkulacjach nie brano jednak pod uwagę, że reakcją konsumenta na nadmiar komunikatów będzie stopniowe uodparnianie się na przekaz i spadające zainteresowanie otwieraniem wiadomości.

Pierwszym krokiem na drodze wyjścia z sytuacji było przyznanie, że konsumenci w bazie nie są jednakowi. Mają różne potrzeby i cechy. W związku z tym wysyłana do nich treść powinna być odpowiednio dostosowana. Rozpoczęto segmentować bazę. Dominowała segmentacja ręczna w oparciu o wiedzę ekspercką i zdefiniowane z góry segmenty. W tym podejściu liczba możliwych do zastosowania cech konsumenta i segmentów była ograniczona  ludzkimi możliwościami.

Zwiększająca się liczba danych

W raz ze zwiększaniem się wolumenu i zakresu danych na temat konsumenta, jakie gromadzone były w bazach, otwierały się nowe możliwości. Nowe dane w połączeniu z rosnącą mocą obliczeniową i zaawansowaniem algorytmów uczenia maszynowego pozwoliły na zwiększenie liczby wykorzystywanych w segmentacji cech. Segmentacja przybrała charakter behawioralny. Dzięki dużej liczbie analizowanych wymiarów, mogła uwzględnić bardziej złożone aspekty zachowania konsumenta i jego relacji z marką. Zastosowanie uczenia maszynowego pozwoliło też na wyróżnienie i przeanalizowanie większej liczby segmentów. To z kolei przekładało się na większą spójność wyłanianych grup i pozwalało na lepsze dopasowanie komunikacji do odbiorcy.

Kolejnym etapem w opisywanej ewolucji było wykorzystanie modeli predykcyjnych do bardziej spersonalizowanego dopasowania komunikacji na poziomie indywidualnego konsumenta. Wcześniej segmentacja pozwalała na operowanie na poziomie grup konsumentów. Różne segmenty mogły otrzymywać inny komunikat w innym momencie, ale wszyscy odbiorcy należący do danego segmentu otrzymywali to samo. Wraz ze wzrostem poziomu zaawansowania segmentacji liczba segmentów mogła być większa, a konsumenci przypisani do nich z większą dokładnością. Poziom generalizacji był jednak wciąż wysoki i pole do poprawy precyzji działań nadal duże. Zastosowanie predykcyjnych modeli scoringowych stanowiło istotny krok na przód. Model przewidywał prawdopodobieństwo zainteresowania każdego indywidualnego konsumenta przedmiotem danej komunikacji. Mógł to być na przykład konkretny produkt, grupa produktowa, oferta promocyjna.

Uczenie maszynowe

Na podstawie danych o zachowaniach konsumentów zgromadzonych w bazie, algorytm uczył się wzorców. W oparciu o nie, był w stanie przewidzieć, który z palety dostępnych komunikatów w największym stopniu pozytywnie wpłynie na konkretnego klienta. Dzięki temu każdy odbiorca w bazie, bez względu na przypisany do niego segment, mógł otrzymać najbardziej odpowiednią treść. Jeśli dla żadnego z zaplanowanych wariantów model nie prognozował wystarczająco wysokiego zainteresowania konsumenta, mógł on zostać wyłączony z danej wysyłki. Pozwalało to na dużą skalę wprowadzić w życie zasadę, że jeśli nie mamy dla ciebie w tym momencie niczego ciekawego do powiedzenia, to lepiej pomilczmy. Dzięki temu konsument mógł mieć poczucie, że dostaje tylko wiadomości dla niego istotne. Nie brakuje przykładów projektów, w których wdrożone zostały tego typu modele predykcyjne. Dzięki temu percepcja odbiorców zmieniła się z „przestańcie wysyłać mi ten spam” na „kiedy dostanę kolejny newsletter”.

Wykorzystanie uczenia maszynowego w komunikacji marketingowej

Opisane modele scoringowe, w połączeniu z zespołem dodatkowych, jeszcze bardziej zaawansowanych modeli pozwalają posunąć personalizację o kolejny krok ku tak zwanej hiperpersonalizacji. Cechuje się ona między innymi:

– precyzyjnym dostosowaniem momentu wysyłki. Każdy konsument może mieć przypisany idealny moment (w rozumieniu godziny, dnia tygodnia, czasu od poprzedniej wysyłki, czasu od poprzedniej wizyty na stronie etc.).

– Doborem najlepszego kanału komunikacji w powiązaniu z idealnym momentem wysyłki.

– Doborem najlepszej kombinacji zastosowanych kanałów (konsument może przykładowo najlepiej reagować na połączenie emaila i wysłanego dwa dni później smsa).

– Możliwością indywidualizacji elementów kontentu (np. dobranie odpowiednich słów w temacie, wybór najlepszego zdjęcia i innych elementów graficznych.

– Dynamicznym dopasowaniem komunikatu do kontekstu konsumenta w czasie rzeczywistym. Inny komunikat i kanał będzie adekwatny, kiedy konsument zostanie zlokalizowany w galerii handlowej, a inny, kiedy w autobusie w drodze do pracy.

1) warte podkreślenia jest, że wszystkie wymienione wyżej personalizacje odbywają się na podstawie wzorców zachowań, których modele „nauczyły się”, obserwując konsumentów a nie na deklaracjach konsumentów. Klient może deklarować, że chciałby otrzymywać mailingi w dni robocze rano. W rzeczywistości największą skuteczność mają mailingi wysłane do niego w soboty wieczorem.

2) Maksymalna moc opisywanego rozwiązania bierze się z synergii poszczególnych submodeli systemu. Optymalny moment dla danego konsumenta będzie różny dla różnych kanałów. Optymalna sekwencja i kombinacja kanałów może być zależna od charakteru komunikowanej promocji. Wreszcie optymalny tekst komunikatu może zależeć od kanału i lokalizacji użytkownika.

Konkurencja o uwagę konsumentów będzie rosnąć wraz z pojawianiem się kolejnych kanałów kontaktu, a także zwiększa się wraz ze wzrostem świadomości marketerów, co do narzędzi, jakie mogą być w ich dyspozycji. Warto zadać sobie pytanie, na jakim etapie opisywanej ewolucji jest nasza organizacja i co możemy zrobić, żeby wykonać kolejny krok, by zyskać dodatkową przewagę i nie pozwolić prześcignąć się konkurencji.

Jakie problemy można rozwiązać przy pomocy Data Science?

Wiele firm z sukcesem wdrożyło już w działach marketingowych inteligentne rozwiązania, wykorzystujące dane i ich zaawansowaną analitykę. Zastosowanie rozwiązań data science zwiększa efektywność działań, redukuje koszty, optymalizuje budżety i poprawia ROI. Chcąc pozostać konkurencyjnymi, pozostałe firmy muszą jak najszybciej nadrabiać dystans do liderów. Od czego zacząć? W jaki sposób efektywnie wykorzystać dane dostępne w organizacji? Poznaj sprawdzone podejście ekspertów Data Science Logic.

Segmentacja klientów

Tradycyjne podejście do segmentacji jest ograniczone, co do liczby zmiennych, jakie można wziąć pod uwagę. Na przykład typowy RFM (od ang. recency, frequency, monetary value) bierze pod uwagę tylko trzy zmienne. Metody uczenia maszynowego mogą dokonać segmentacji konsumentów w oparciu o praktycznie nieograniczoną liczbę wymiarów. Uwzględniają nie tylko dane demograficzne, ale także dane behawioralne związane zarówno z zachowaniami zakupowymi, jak i interakcjami konsumenta w różnych punktach styku (np. www, mailingi, aplikacja). W wyniku segmentacji powstają „persony” –  typowi reprezentanci segmentu, których charakterystyki pozwalają na zróżnicowanie podejścia i zaplanowanie dla nich optymalnych działań.

Predykcja wartości klienta

Modele uczenia maszynowego mogą z dużą dokładnością przewidywać wartość klienta w całym jego cyklu życia. Jest to możliwe już od momentu pojawienia się pierwszych (nawet szczątkowych) danych na temat relacji konsumenta z firmą. Oczywiście im więcej danych tym dokładniejsza predykcja. Już jednak wstępna predykcja pozwala na podjęcie decyzji, ile opłaca się inwestować w relację z danym klientem. Można dzięki temu skupić uwagę i budżet na najbardziej opłacalnych klientach.

Działania anty-churnowe

Uczenie maszynowe pozwala na precyzyjne wskazanie klientów zagrożonych odejściem. Pozwala to na identyfikację i priorytytetyzację klientów, wobec których trzeba podjąć działania. W połączeniu z modelami predykcyjnymi wartości klienta możliwe jest podjęcie optymalnej decyzji, ile warto zainwestować w utrzymanie danego klienta (np. w postaci rabatu). Przy wykorzystaniu modeli komunikacji bezpośredniej można znaleźć optymalny moment, kanał i treść komunikatu antychurnowego. Model może też wskazać wystarczająco dobrą dla danego klienta ofertę. Przykładowo, jeśli klient zdecydowałby się zostać po otrzymaniu rabatu 5%, to nie ma potrzeby oferowania mu rabatu 15%. Model predykcyjny może więc przyczynić się do istotnych oszczędności budżetu.

Planowanie komunikacji bezpośredniej

Modelowanie predykcyjne w istotny sposób wspiera proces przygotowywania i planowania komunikacji marketingowej – nie tylko antychurnowej. Na podstawie danych o interakcjach konsumentów z firmą, możliwa jest predykcja pozytywnej reakcji danego klienta na określony kontent, ofertę, moment i kanał wysyłki. Pozwala to na optymalizację budżetu – np. wybór tańszego kanału, jeśli spodziewany efekt będzie zbliżony, czy poprawę doświadczenia konsumenta – mniej spamu, bardziej dopasowana treść, najbardziej dogodny kanał komunikacji.

Analiza i rekomendacje kontentu

Zaawansowane modele predykcyjne oparte o tzw. uczenie maszynowe głębokie (ang. deep learning) są w stanie przetwarzać nie tylko dane liczbowe, ale także obraz, tekst, dźwięk czy wideo. Pozwala to na przewidywanie efektu, jaki wywoła u konkretnego klienta kontent wysyłany w komunikacji. Dzięki temu można dobrać odpowiednią treść i tytuł maila, optymalny layout oraz grafikę.

Analiza inkrementalnego efektu promocji

Promocje i obniżki cen stanowią istotną pozycję budżetu. Nic więc dziwnego, że pojawiają się pytania o ich efektywność i wpływ na sprzedaż. Prosta analiza często nie jest wystarczająca. Obniżenie ceny produktu prawie zawsze podwyższa jego sprzedaż. Obserwując tylko dynamikę sprzedaży w okresie promocji, można dojść do wniosku, że zadziałała ona korzystnie. Tymczasem trzeba znaleźć odpowiedź na pytanie, ile wyniosłaby sprzedaż, gdyby nie było tej promocji. Dopiero porównanie tych dwóch wartości (rzeczywistej sprzedaży i hipotetycznej sprzedaży bez promocji) pozwala na ocenę efektu promocji. Zaawansowane modele data science są w stanie z dużą dokładnością estymować bazową sprzedaż, biorąc pod uwagę także takie czynniki jak sezonowość, kanibalizacja, zmienność pogody, efekty kalendarzowe.

Przedstawione przykłady to tylko niektóre z problemów, jakie już dziś rozwiązywane są przy pomocy data science, a wykorzystanie pełnego potencjału danych może znacząco wpłynąć na pozycję firmy na rynku.

Modelowanie predykcyjne a pomiar satysfakcji klienta

Tradycyjne podejście do pomiaru satysfakcji klienta oparte o badania ankietowe przestaje być wystarczające. Korzystając z bogactwa dostępnych danych, przedsiębiorstwa już dziś przełamują ograniczenia dostępnych metod. Predykcja satysfakcji klienta oparta o dane i proaktywne działania podejmowane na jej podstawie to przyszłość tego obszaru.

Satysfakcja klientów jest kluczowa dla utrzymania ich lojalności i stanowi fundament rozwoju biznesu na konkurencyjnym rynku. Nic więc dziwnego, że już od dawna temat ten jest przedmiotem zainteresowania specjalistów z zakresu marketingu. Owocami tego zainteresowania jest wiele opisywanych w literaturze i stosowanych w praktyce metodyk mierzenia satysfakcji klienta. Wśród najpopularniejszych wymienić można m.in. Customer Satisfaction Score, Customer Effort Score czy Net Promoter Score (NPS). Cechą wspólną najpopularniejszych podejść jest ich oparcie o ankiety, w których konsumentowi zadawane są odpowiednio przygotowane pytania (bądź nawet tylko jedno pytanie). Należy podkreślić, że pomiar i analiza satysfakcji klientów przy pomocy wspominanych badań w wielu przypadkach okazywały się skuteczne. Były i są one istotnym elementem sukcesu rynkowego wielu przedsiębiorstw. Metody te nie są jednak pozbawione wad. Według badania przeprowadzonego przez McKinsey&Company wśród najczęściej wymienianych przez specjalistów z obszaru CS/CX pojawiają się:

  • ograniczony zasięg
  • opóźnienie informacji
  • niejednoznaczność odpowiedzi utrudniająca podejmowanie na ich podstawie działań

Ograniczony zasięg

Według przytaczanego wcześniej badania typowa ankiety satysfakcji zbierają odpowiedzi od nie więcej niż 7% klientów firmy. Przyczyny tego są wielorakie. Wśród nich wymienić można ograniczenia budżetowe (koszt badania),  brak dostępnego kanału komunikacji z klientem lub brak zgody na komunikację, niskie zainteresowanie klientów udzielaniem odpowiedzi na pytania. Co istotne, skłonność do odpowiedzi na ankietę może być różna w zależności od pewnych cech czy doświadczenia klienta (np. niezadowoleni mogą odpowiadać chętniej). Stawia to pod dużym znakiem zapytania reprezentatywność otrzymywanych wyników i możliwość ich generalizacji na całą bazę konsumentów firmy.

Opóźnienie informacji

Ankiety ze swojej natury są opóźnione w stosunku do zjawiska, które badają. Uniemożliwia to podejmowanie działań wyprzedzających. Działania wobec niezadowolonego klienta możemy podjąć dopiero po tym jak wypełni on ankietę. Praktycy z obszaru satysfakcji klienta często podkreślają jak dużą rolę odgrywa czas reakcji na problematyczne doświadczenia. Doskonały system pomiaru satysfakcji powinien działać w czasie zbliżonym do rzeczywistego. Dzięki temu możliwe będzie podjęcie natychmiastowych działań dla rozwiązania problemu klienta czy zatarcia złego wrażenia, jakie powstało w jego świadomości. Idealnie byłoby przewidywać narastające niezadowolenie klienta zanim ujawni się ono w postaci negatywnej oceny w ankiecie bądź pełnym nerwów kontaktem z obsługą klienta. Takiej możliwości nie ma w systemach pomiaru opartych wyłącznie o ankiety.

Dodatkowe opóźnienia w zbieraniu informacji wynikają z ograniczonej częstotliwości, z jaką można zadawać konsumentowi pytania. Zazwyczaj ankiety przeprowadza się po zakończeniu pewnego etapu podróży konsumenta np. po transakcji. Często nie ma możliwości zadawania pytań we wcześniejszych krokach, na których także mogą pojawić się problemy wpływające negatywnie na doświadczenie klienta. W skrajnym przypadku negatywne doświadczenie np. przy składaniu zamówienia może zakończyć się tym, że do transakcji w ogóle nie dojdzie. Jeśli ankietujemy tylko po transakcji, to w takiej sytuacji nie uzyskamy żadnej informacji, gdyż konsument nie spełni kryterium (transakcja) do otrzymania ankiety.

Oczywiście zdarzają się firmy, w których procesy ankietowe nie są poddane takim ograniczeniom. Firmy te ankiety przeprowadzają po każdym etapie podróży klienta i za każdym razem, kiedy klient wchodzi w interakcję z firmą. Należy jednak pamiętać, że ankieta może być postrzegana przez klienta jako narzędzie inwazyjne. Już sama nadmierna liczba ankiet może więc wpływać negatywnie na jego doświadczenie. Stąd konieczne jest zachowanie rozsądnego balansu pomiędzy częstotliwością ankietowania a chęcią odpowiadania konsumentów. Najlepiej zaś pomyśleć o nieco innym rozwiązaniu, które przedstawimy w dalszej części artykułu.

Niejednoznaczność odpowiedzi utrudniająca podejmowanie
na ich podstawie działań

To ograniczenie jest pochodną dążenia do utrzymania balansu między potrzebami informacyjnymi firmy, a zadowoleniem konsumenta. Wynika zarówno z pokrycia ankietami poszczególnych kroków w consumer journey (opisane wyżej), jak i ograniczeń w długości ankiety. Ankiety krótkie (obejmujące jedno lub kilka pytań) są mało uciążliwe dla konsumenta i mogą też przyczyniać się do lepszego responsu. Sprowadzenie jednak ankiety do jednego pytania może utrudniać zrozumienie, jakie właściwie czynniki wpłynęły na taką a nie inną ocenę konsumenta. Jeśli nie wiemy, co w przypadku tego konsumenta spowodowało negatywną ocenę, trudno jest podjąć na podstawie wyniku jakieś działania mające za zadanie złe wrażenie naprawić.

Podobnie działa ograniczenie liczby momentów, w których zadawane są pytania. Wystawiona przez konsumenta ocena (przykładowo „siedem”) po zakończeniu transakcji jest trudna do przypisania do poszczególnych etapów jego ścieżki. Ustalenie, które etapy spowodowały odjęcie przez konsumenta punktów od maksymalnej noty wymagałoby zadania serii pytań pogłębiających. To wydłuża czas potrzebny na wypełnienie ankiety i zmniejsza szansę na uzyskanie odpowiedzi. Z drugiej strony częstsze ankietowanie (np. po każdy kroku konsumenta) rodzi również opisane wyżej problemy.

Modelowanie predykcyjne jako rozwiązanie

Wykorzystując uczenie maszynowe, możliwe jest zbudowanie modeli zdolnych do przewidywania satysfakcji konsumenta na dowolnym etapie jego podróży do finalizacji transakcji. Wymaga to oczywiście zintegrowania danych z wielu różnych źródeł zazwyczaj obecnych w przedsiębiorstwie. Wymienić tutaj można dane sprzedażowe, z programu lojalnościowego, z biura obsługi klienta, infolinii, strony internetowej, dane finansowe, czy wreszcie dane z dotychczas prowadzonych badań satysfakcji. Dane te są potrzebne na poziomie indywidualnego konsumenta. Wymaga to również posiadania specjalistycznej wiedzy z zakresu data science – potrzeba zespołu zdolnego do budowy i implementacji modeli predykcyjnych. Warto podkreślić, że w rozwiązaniu takim nie rezygnujemy całkowicie z badań ankietowych. Zmieniają one jednak swój charakter. Stają się narzędziem typowo badawczym. Przestają zaś być narzędziem do bieżącego pomiaru satysfakcji.

System działa w ten sposób, że na podstawie danych gromadzonych na bieżąco na temat konsumenta, przewiduje jego aktualny w danym momencie współczynnik satysfakcji. Co więcej wskazuje również jakie czynniki dodatnio a jakie ujemnie na ten wynik wpływają. Pozwala to po pierwsze zidentyfikować klientów, wobec których konieczne jest podjęcie działań, a po drugie zarekomendować konkretne działania, jakie wobec nich trzeba podjąć. Całość pozwala na stałe w czasie zbliżonym do  rzeczywistego przewidywanie satysfakcji klientów i podejmowanie skutecznych działań.

Predykcyjne podejście do satysfakcji klienta to z całą pewnością przyszłość. Firmy, które jako pierwsze na swoim rynku wdrożą tego typu rozwiązania wygrają walkę o klienta. Nawet jeśli zdarzy się jakaś obsługowa „wpadka” (a to w dużych organizacjach nieuniknione) będą w stanie odpowiednio i szybko na nią zareagować. Dzięki sprawnie działającemu systemowi opartemu o predykcję, reakcja może być tak szybka, że konsument nawet nie zdąży pomyśleć o poszukiwaniach konkurencyjnego dostawcy.

Wzrost czy kanibalizacja? Sukces czy porażka promocji?

Promocja produktu, zwłaszcza związana z obniżką jego ceny, prawie zawsze kończy się wzrostem sprzedaży. Czy jednak każdy wzrost oznacza, że promocja była opłacalna? Jak często promowany produkt odbiera klientów innym substytucyjnym produktom? Jak policzyć ile wynosi rzeczywisty „inkremental” akcji?

Fundamentalne pytanie do rozwiązania wskazanych we wstępie problemów brzmi: co by było, gdyby… A dokładnie: co by było, gdyby nie było promocji. Ile wyniosła by sprzedaż produktu promowanego? Ile sprzedałoby się innych produktów (zwłaszcza produktów substytucyjnych dla promowanego)? Z pozoru wydaje się to niemożliwe do ustalenia. Pytamy w końcu o alternatywną rzeczywistość, której nie jesteśmy w stanie zaobserwować. Nie można jednocześnie wprowadzić promocji i jej nie wprowadzać. Okazuje się jednak, że bazując na postępach statystyki, nauki o danych i badań nad sztuczną inteligencją z ostatnich lat, jesteśmy w stanie w naukowy, metodyczny i rygorystyczny sposób dokonać oszacowania wspomnianych efektów. Stosowana metoda opiera się o tzw. syntetyczne grupy kontrolne. Czyli mówiąc w pewnym uproszczeniu grupy porównawcze tworzone przez specjalny algorytm na podstawie dostępnych obserwacji sprzedaży produktów podobnych.

Przeanalizujemy to na przykładzie zilustrowanym na wykresie poniżej. Czerwona linia pokazuje rzeczywistą sprzedaż produktu (w sztukach). Widać, że przed marcem sprzedaży produktu była śladowa. Widoczny jest też wyraźny cykl tygodniowy ze szczytami w soboty i wyraźnymi spadkami w niedziele (związanymi z zakazem handlu i ograniczoną liczbą punktów, które mogą prowadzić sprzedaż). Można zauważyć też trend wzrostowy sprzedaży od początku marca. Czarna pionowa przerywana linia pokazuje dzień startu promocji. Cena produktu została znacząco obniżona. Widać wyraźny wzrost sprzedaży.

Jasnoniebieska przerywana linia to oszacowane przez algorytm zachowania się sprzedaży promowanego produktu gdyby nie było promocji (rzeczywistość alternatywna). Widać, że nawet bez promocji nastąpiłby wzrost sprzedaży (zgodnie z widocznym od początku marca trendem wzrostowym). Nie byłby on jednak aż tak duży. Można więc przyjąć wniosek, że promocja wygenerowała dodatkową sprzedaż produktu.

Kolejny wykres pokazuje podsumowanie inkrementalnej sprzedaży dla poszczególnych dni. Podobnie jak na wcześniejszym wykresie, czarna pionowa przerywana linia oznacza początek okresu promocji. Większość słupków jest wyraźnie wyższa od zera, co oznacza szacowany wzrost sprzedaży w stosunku do scenariusza bazowego (czyli braku promocji). Okres poprzedzający promocję na lewo od przerywanej linii, to okres kalibracyjny. Na podstawie tego okresu algorytm uczy się najlepszej kombinacji produktów stanowiących grupę porównawczą (tzw. syntetyczną grupę kontrolną). Im słupki w okresie kalibracyjnym bliższe są zeru tym lepiej dopasowana grupa porównawcza. Oczywiście w realnych przykładach (takich jak prezentowany w tym artykule) trudno znaleźć dopasowanie idealne. Stąd słupki odchylają się nieco od 0. Istotne jest jednak to, że skala tych odchyleń jest zdecydowanie mniejsza w okresie kalibracyjnym.  Uprawdopodobnia to wniosek o rzeczywistym dodatnim wpływie promocji na sprzedaż.

W tym miejscu można by zamknąć analizę i pogratulować osobom odpowiedzialnym za promocję. Pojawia się jednak pytanie, na ile promocja przyciągnęła nowych klientów lub zwiększyła popyt u istniejących, a na ile jedynie przesunęła popyt z innych komplementarnych produktów, które nie były w tym okresie promowane. Innymi słowy, na ile promocja skanibalizowała sprzedaż innych produktów.

W celu odpowiedzi na to pytanie przeprowadzimy podobną analizę do zaprezentowanej powyżej. Tym razem jednak czerwona linia będzie oznaczała sprzedaż produktu substytucyjnego do produktu promowanego. Dla tego właśnie produktu chcemy oszacować efekt kanibalizacji.

Podobnie jak wcześniej pionowa czarna przerywana linia oznacza datę początku akcji. Po rozpoczęciu promocji czerwona linia jest niżej od jasnoniebieskiej przerywanej, co oznacza, że produktu substytucyjnego sprzedaje się mniej niż sprzedałoby się go w scenariuszu bazowym zakładającym brak promocji. Warto również zwrócić uwagę, że w okresie poprzedzającym promocję (okresie kalibracyjnym) obie linie są bardzo blisko siebie, co oznacza, że algorytm poprawnie skalibrował grupę porównawczą.

Wykres poniżej podsumowuje efekt kanibalizacji w poszczególnych dniach. Widać, że w każdym dniu okresu promocji produktu sprzedało się mniej w porównaniu do rzeczywistości, w której promocja nie miała by miejsca.

W analizowanym przypadku inkrementalna sprzedaż produktu promowanego wyniosła 407 sztuk. Oceniając akcję promocyjną, trzeba jednak uwzględnić efekt kanibalizacji. W tym przypadku utrata sprzedaży na produkcie substytucyjnym do promowanego wyniosła w okresie promocji 326 sztuk. Nie biorąc pod uwagę tego czynnika, moglibyśmy znacząco przeszacować finansowy efekt akcji i wyciągnąć nieprawidłowe wnioski, co do jej opłacalności. To zaś mogłoby się przełożyć na nieoptymalne decyzje dotyczące organizowania podobnych promocji w przyszłości.

Najlepszym sposobem pomiaru efektów jest przeprowadzenie zrandomizowanego eksperymentu. Nie zawsze jest to jednak możliwe. Trudno wyobrazić sobie, w jaki sposób w tym samym czasie i dla tej samej grupy konsumentów jednocześnie przeprowadzić promocję i jej nie przeprowadzić. W takich sytuacjach nieocenione w analizie marketingowej mogą być nowoczesne metody analityczne oparte o syntetyczne grupy kontrolne między innymi takie jak zaprezentowana w dzisiejszym artykule.