Predykcja i segmentacja jako broń w walce z churn

Rotacja klientów jest jednym z kluczowych wyzwań, przed którymi stoją organizacje w czasach obecnie panującej wysokiej konkurencji. Aby skutecznie walczyć z odchodzeniem klientów, firmy powinny znaleźć odpowiedzi na dwa kluczowe zagadnienia: którzy klienci zagrożeni są rezygnacją oraz podjęcie jakich działań może zahamować ten proces.

Z pomocą przychodzi połączenie dwóch metod z arsenału data science: predykcji i klastrowania (segmentacji), które razem zwiększają skuteczność działań retencyjnych.

Kwestię predykcji zagrożenia odchodzeniem klientów, poruszałem już w jednym z artykułów w ramach cyklu We Love Data So Let’s Date. Ze względu na wagę tematu oraz na zainteresowanie, jakie wywołał postanowiłem pogłębić zagadnienie i przedstawić podejście, w którym dzięki połączeniu dwóch metod uczenia maszynowego możemy znacząco ułatwić wdrożenie w życie działań antychurnowych opartych o dane.

Predykcja i segmentacja jako broń w walce z odchodzeniem klientów

Podstawowym narzędziem w przeciwdziałaniu rezygnacji klientów jest model predykcyjny. Pozwala on na przewidywanie prawdopodobieństwa odejścia konkretnego konsumenta. To jednak może nie wystarczyć. Nawet najlepszy model i najdokładniejsza predykcja nie przydadzą się, jeśli na podstawie otrzymanych informacji nie podejmiemy odpowiednich działań.

Odpowiednia interpretacja danych pozwala na planowanie działań i podejmowanie akcji – np. wysyłki komunikatu sms do klientów lub zaoferowanie rabatu na wybrane produkty. Następnie mierzymy wpływ działań (efekt) na zachowania konsumentów i ich skłonność do rezygnacji z dalszego korzystania z oferty.  Pomiar i obserwacja zachowań konsumentów stanowi źródło nowych danych, z których korzystać może model predykcyjny. W ten sposób cykl się zamyka, a obrazuje to poniższy schemat.

schemat modelu predykcyjnego

Model predykcyjny wskazuje prawdopodobieństwo rezygnacji konkretnego klienta. Pozwala to na priorytetyzację zadań i wykorzystanie ograniczonych zazwyczaj zasobów na konsumentach najbardziej zagrożonych odejściem.  Informacja, że konsument z 75% prawdopodobieństwem odejdzie od nas w ciągu najbliższego kwartału pomaga nam podjąć decyzję, że „coś” z tym musimy szybko zrobić. Czy daje jednak wiedzę co należy zrobić? Skąd firma ma wiedzieć jakie działania podjąć? Kluczem jest właściwa interpretacja danych.

Sytuacją idealną byłaby możliwość podjęcia działań spersonalizowanych pod kątem pojedynczego konsumenta. Czyli każdy klient otrzymałby unikatową dostosowaną do jego potrzeb i problemów ofertę. Modele predykcyjne zbudowane w oparciu o odpowiednio dobrane metody uczenia maszynowego pozwalają na stworzenie indywidualnego profilu każdego konsumenta. Dodatkowo wskazują konkretne czynniki, które w jego przypadku skojarzone są z wyższym ryzykiem odejścia. Pomimo postępów w obszarze hiperpersonalizacji działań marketingowych, dla wielu organizacji wciąż nie jest jeszcze ona osiągalna na dużą skalę. Nie wszystkie działania mogą być równie łatwo automatyzowane. Ograniczeniem może być np. kreacja, produkcja contentu czy budowa oferty.

Rozwiązaniem w takim przypadku jest podejście oparte o zaawansowaną segmentację. Zdecydowanie nie chodzi tu jednak o klasyczne segmenty, które wykorzystują tylko podstawowe zmienne typu wiek czy płeć. Nie różnicują one wystarczająco bazy, a prawdziwe linie podziału przebiegają zupełnie gdzie indziej. Istotne jest więc żeby była to segmentacja behawioralna, w której szukamy podobieństw w zachowaniach klientów, biorąc pod uwagę ten sam szeroki agregat opisujących zmiennych, jaki był wykorzystany do budowy modelu predykcyjnego. Do przeprowadzenia tak kompleksowej segmentacji konieczne są klastrujące algorytmy uczenia maszynowego.

 Procedura może wyglądać następująco:

  1. Model predykcyjny pozwala na wyłonienie grupy najbardziej zagrożonych klientów.
  2. Decydujemy, że mamy zasoby na działania wobec 20% najbardziej zagrożonych klientów.
  3. Wybieramy tych klientów i przy pomocy modelu klastrującego dzielimy ich na segmenty. Ich liczba powinna być wypadkową wskazań modelu oraz zasobów jakimi dysponujemy do ich obsługi (zazwyczaj będzie to ich kilka – kilkanaście).
  4. Interpretujemy segmenty i planujemy działania.
predykcja - zaawansowany schemat

Zaproponowana metoda pozwala wykorzystać w praktyce modelowanie predykcyjne i dostarczane przez analizy data science pogłębione zrozumienie konsumentów zagrożonych odejściem. Podejście znajdzie zastosowanie także w  firmach niegotowych jeszcze technologicznie i organizacyjnie na w pełni zautomatyzowane działania hiperpersonalizacyjne.

Jak liczyć efekt akcji, żeby (prawie) zawsze móc ogłosić sukces?

Po przeprowadzonej kampanii, marketerzy zastanawiają się czy i jaki ich akcja przyniosła zysk. Podsumowując zrealizowane dotychczas projekty i planując kolejne działania, próbują znaleźć odpowiedź na to nurtujące pytanie. Na różne sposoby wyliczają efektywność. Zwykle im większy efekt, tym mniejsza skłonność do refleksji, czy ich metoda kalkulowania efektywności jest w ogóle prawidłowa. Do tego dochodzą pewne oczywiste, choć wciąż często popełniane błędy i w ten oto sposób nadinterpretacja wyników gwarantowana.  Czy istnieje zatem niezawodny sposób, który jasno mówi, jak powinno się liczyć efekt akcji?

Błędna ocena efektu akcji

Oto prosty przykład do zobrazowania idei. Załóżmy, że organizujemy akcję, nagradzającą wszystkich klientów, którzy zgodzili się na otrzymywanie e-maili marketingowych. Każdy, z kim możemy się w ten sposób kontaktować, otrzyma e-mailem bon rabatowy na kwotę 20 zł. Pomysł spotyka się z aprobatą. Kryteria selekcji są proste. Akcja jest szybko realizowana. Tak szybko, że nie wystarczyło czasu na przemyślenie sposobu, w jaki będzie mierzony jej efekt. Jakoś wypadałoby go jednak zmierzyć. Przecież można dokonać porównania sprzedaży w grupie, która otrzymała kupon do grupy, która nie została zakwalifikowana do tej akcji. No właśnie. Przecież to proste.

Przy bazie liczącej 100 tys. konsumentów wygenerowaliśmy 2700 dodatkowych transakcji (2,7%*100000 = 2700) oraz podwyższyliśmy wartość 2400 transakcji
o 5,12 zł (2,4%*100000 = 2400). Łączny wygenerowany obrót wyniósł więc 301 tys. zł. Koszt wykorzystanych bonów wyniósł 102 tys. zł  (5100 * 20 zł = 102000).
A więc sukces. Czyżby?

Takie rozwiązanie jest bardzo uproszczone. Właściwie można byłoby nawet użyć określenia naiwne i zniekształca (zazwyczaj zawyża) inkrementalny efekt akcji. Powyższy sposób liczenia pomija bowiem jeden istotny szczegół. Porównywane grupy różnią się od siebie i to nie tylko faktem otrzymania bonu. Grupa z bonem otrzymuje komunikację e-mail, podczas gdy grupa bez bonu zwyczajnie takiej komunikacji nie otrzymuje. Założenie, że grupa, która wyraziła zgodę na komunikację za pośrednictwem poczty elektronicznej będzie bardziej skłonna do dokonywania zakupów, nawet jeśli nie otrzyma bonu, jest wiarygodne. Jeżeli założylibyśmy odwrotnie, oznaczałoby to , że komunikacja nie ma wpływu na sprzedaż, a przecież wiemy, że tak nie jest.

Po pierwsze: zawczasu zaplanuj sposób analizy efektów

Co więc w tej sytuacji zrobić? Najlepszy podejściem, byłoby zaplanowanie sposobu analizy efektów jeszcze przed uruchomieniem akcji. Dzięki temu, spośród wszystkich klientów spełniających kryteria można wylosować odpowiednio liczną grupę kontrolną. Grupa ta nie otrzymała by bonu. Byłaby to jedyna istotna różnica w stosunku do grupy otrzymującej bon. Dzięki temu grupa kontrolna stanowiłaby lepsze i wiarygodniejsze tło do porównania. Podobna akcja rzeczywiście została przeprowadzona dla jednego z naszych klientów, jednak jej efekty zostały zmierzone poprawnie. Jeszcze przed przystąpieniem do wysyłki, wyłoniliśmy spośród osób ze zgodą  na komunikację za pośrednictwem poczty elektronicznej, odpowiedni volumen grupy kontrolnej. Wyniki poprawnego porównania widoczne są w tabeli poniżej.

Wciąż widoczna jest pozytywna różnica w odsetku grupy z transakcją. Jednak jest ona o wiele niższa w przypadku poprzedniego porównania i wynosi tylko 0,8% Według nowych szacunków wygenerowaliśmy 800 dodatkowych transakcji (0,8%*100000 = 800) oraz podwyższyliśmy wartość 4300 transakcji o 7,79 zł  (4,3%*100000 = 4300 transakcji). Tak jak w poprzednim przypadku koszt wykorzystanych bonów wyniósł 102 tys. zł (5100 * 20 zł = 102000). Łączny wygenerowany obrót wyniósł więc 119 tys. zł (85,5 tys. zł + 33,5 tys. zł). Był więc niewiele wyższy niż koszt udzielonego w związku z tą akcją rabatu. Trudno więc ogłaszać sukces. Należy natomiast wyciągnąć wnioski i przy planowaniu kolejnych akcji dokonać odpowiednich zmian (np. lepiej dobrać wartość rabatu, przyjąć inne kryteria doboru klientów). Czy jednak należy wyciągnąć też wniosek, że zawsze przy tego rodzaju analizach trzeba stosować opisaną metodę – eksperyment oparty o losowe grupy kontrolne (zwany także testem A/B)? Tak, ale…

Co, gdy nie da się wyodrębnić grupy kontrolnej?

Niestety takie podejście nie zawsze jest wykonalne. I to jest jego główna wada. W pewnych sytuacjach występują ograniczenia prawne (np. interpretacja przepisów, która ogranicza możliwość dyskryminacji klientów i nakazuje przyznanie benefitów wszystkim, którzy spełniają określone kryteria), a także ograniczenia marketingowe. Na przykład firma może nie chcieć narażać się na ryzyko wywołania niezadowolenia u klientów, którzy w ramach eksperymentu zostaną odcięci od możliwości uzyskania benefitu. Ryzyko tym większe im wyższa w oczach klientów wartość benefitu. Czy więc w takich sytuacjach jesteśmy skazani na fałszujące obraz uproszczone podejście lub musimy w ogóle zrezygnować z analizy efektów akcji marketingowej?

Kim są statystyczni bliźniacy?

Niekoniecznie. Na szczęście nie musimy zakładać tak drastycznych scenariuszy i rezygnować z mierzenia efektów przeprowadzanych kampanii. Istnieją zaawansowane metody statystyczne, które pozwalają nawet bez grupy kontrolnej wyestymować rzeczywisty efekt. Metody te, mówiąc w uproszczeniu, opierają się o poszukiwanie bliźniaków statystycznych. Bliźniacy statystyczni to klienci o jak najbardziej zbliżonych cechach, wśród których tylko jeden był poddany działaniu bodźca: został objęty promocją, wysłaliśmy mu smsa, wyświetliliśmy mu reklamę online, czy podjęliśmy wobec niego inne działania mające  na celu zachęcenie go do skorzystania z naszej oferty. Powstaje w ten sposób syntetyczna „grupa kontrolna” złożona z jednego bliźniaka z każdej pary, tego który nie brał udziału w akcji.  Wyzwaniem jest w tym wypadku identyfikacja kluczowych zmiennych gwarantujących podobieństwo grup. Jednak odpowiednie oprogramowanie komputerowe pomaga przeprowadzić ten proces. Otwiera to nowe możliwości analizy danych i optymalizacji decyzji w sytuacjach, w których przeprowadzenie zrandomizowanego eksperymentu nie jest możliwe, bądź jest trudne lub nieopłacalne.

Jak widzimy, zdarza się, że efekty przeprowadzanych akcji marketingowych są albo źle liczone, albo wyniki są nadinterpretowane. Dlatego jeszcze przed przystąpieniem do realizacji kampanii, należy ustalić w jaki sposób zamierzamy badać jej skutki. Zaawansowane metody statystyczne oraz machine learning pomagają w wielu problematycznych sytuacjach, takich jak chociażby brak możliwość skompletowania optymalnej grupy kontrolnej.

Sezonowość a cena produktu. Jak wycenić produkt, aby sprzedać i zarobić?

Ustalenie prawidłowej ceny produktu czy usługi jest jednym z największych, a jednocześnie najważniejszych wyzwań detalisty na konkurencyjnym rynku. Zbyt niska cena zmniejsza przychody a w konsekwencji zysk. Z kolei cena zbyt wysoka ogranicza popyt i również powoduje zmniejszenie przychodów. Wprawdzie jednostkowy zysk na sprzedaży jest wyższy, ale może nie skompensować strat związanych ze zmniejszeniem wolumenu.

Ustalenie optymalnej ceny produktu – od czego zacząć?

Trudności związane z ustaleniem optymalnej ceny towarów wynikają z liczby i złożoności czynników, które mają na nią wpływ. Są to między innymi ceny produktów komplementarnych i substytucyjnych. Do listy można dopisać także promocje, reklamy, aktywność i ofertę konkurencji, sytuację ekonomiczną klientów, ich gusta i preferencje, koszty zakupu towarów, kwestie związane z logistyką. Dodatkowe wyzwania wiążą się z produktami, na których popyt ma charakter sezonowy i wynika np. z uwarunkowań pogodowych. Klasycznym przykładem takiego asortymentu są lody, na które popyt związany jest ściśle z temperaturą powietrza. Inne tego typu produkty, które można wymienić to okulary przeciwsłoneczne, narty, napoje chłodzące, kurtki zimowe, stroje kąpielowe, usługi hotelowe, przeloty turystyczne.

Paradoks ceny

W przypadku tego rodzaju produktów często mamy do czynienia z paradoksem ceny. Klasyczna ekonomiczna teoria popytu i podaży mówi, że im wyższa cena, tym mniejszy popyt na towar lub usługę. Zazwyczaj tak jest. Jednak w przypadku produktów wybitnie sezonowych zależność ta może ulec zachwianiu. Często się przecież zdarza, że najwyższe ceny notowane są w szczycie sezonu na dany produkt. A więc wtedy, gdy i sprzedaż jest najwyższa. Sprzedawcy wiedząc, że konsumenci właśnie w tym okresie najbardziej potrzebują produktu i są najbardziej skłonni do zakupów, wykorzystują to, podnosząc ceny. Sytuację tego rodzaju ilustruje wykres poniżej. Widać delikatną, ale wyraźną pozytywną relację między ceną (oś pozioma) a sprzedawanym wolumenem (oś pionowa).

sezonowość-a-cena

Patrząc tylko na ten wykres, będący w istocie prostym modelem cena-popyt, można byłoby wyciągnąć naiwny wniosek, że podnoszenie cen powoduje wzrost sprzedaży. Jak wiadomo nie jest to prawda (za wyjątkiem bardzo wąskiej i specyficznej grupy dóbr luksusowych). Podnosząc ceny lodów w okresie od października do marca, nie uda nam się zwiększyć ich sprzedaży.

Zależność obserwowana na wykresie jest efektem splotu dwóch czynników. Po pierwsze jest to wpływ ceny i temperatury powietrza na sprzedaż, a po drugie wpływ temperatury (sezonu) na cenę. Ten ostatni wiąże się właśnie z decyzjami sprzedawcy o dostosowaniu ceny do podwyższonego popytu.

Czy istnieje idealne narzędzie do estymacji ceny?

Rozwiązanie zagadki rzeczywistego wpływu ceny na sprzedaż wymaga więc nieco bardziej złożonego podejścia niż analiza korelacji między ceną a popytem (której przykład ilustrował poprzedni wykres). Idealnym narzędziem do estymacji tego rodzaju efektów są losowe eksperymenty (np. testy A/B). W teorii można sobie wyobrazić, że detalista będzie losowo zmieniał ceny tak, aby przetestować różne warianty i połączenia – co zaowocuje np. podwyższeniem ceny lodów w grudniu, czy jej drastyczną obniżką w wyjątkowo upalnym czerwcu. W praktyce jednak jest to trudno wykonalne, a jeżeli już to na niewielką skalę i w ograniczonym czasie. Jest to bowiem bardzo kosztowny eksperyment.

Sprzedaż produktów po nieoptymalnej cenie powoduje drenaż przychodów. Dodatkowo częste i nieprzewidywalne zmiany cen mogą negatywnie wpływać na doświadczenie konsumentów i skłaniać ich do przechodzenia do konkurencji. Praktycznym rozwiązaniem jest więc wykorzystanie danych, które już mamy i które nie pochodzą z eksperymentu do estymacji wpływu interesującego nas czynnika (w tym wypadku ceny) na istotny dla nas rezultat (w tym wypadku sprzedaż). Jest to możliwe, choć trzeba zaznaczyć, że nie jest to zadanie trywialne i wymaga rozbudowanego aparatu matematycznego. W dzisiejszym artykule nie będę się jednak skupiał na matematycznych, statystycznych i filozoficznych niuansach związanych z analizą przyczynowości. Zamiast tego pokażę możliwe do uzyskania wyniki tego rodzaju analizy i ich praktyczne efekty.

Sezonowość a cena produktu

Rozwiązanie wymaga na początku nałożenia na dane „modelu” odzwierciedlającego nasze rozumienie sposobu funkcjonowania systemu, który chcemy analizować. Potrzebny jest przy tym zarówno zdrowy rozsądek, jak i wiedza ekspercka. Nasze założenia możemy opisać przy pomocy grafu, jak na ilustracji poniżej.

Przede wszystkim, jak widać, ustalamy założenia, co do kierunku oddziaływania poszczególnych zmiennych. Cena zmienia się pod wpływem temperatury (a dokładniej przez działania detalisty wynikającego z jego wiedzy odnośnie  wpływu temperatury na zachowania konsumentów). Detalista zmieniając cenę, nie jest zaś w stanie zmienić temperatury  powietrza – myślę, że nie jest to kontrowersyjne założenie – stąd strzałka skierowana jest tylko w jedną stronę. Temperatura ma także bezpośredni wpływ na sprzedaż (kiedy jest ciepło więcej ludzi ma ochotę na lody). Dodatkowo uwzględniamy, że wpływ na cenę i na sprzedaż mogą mieć także inne czynniki, które pozostają poza naszą obserwacją. Jest to oczywiście bardzo uproszczony model i z łatwością można go rozbudować o kolejne czynniki wpływające na cenę lub sprzedaż.

Estymacja faktycznego wpływu ceny na sprzedaż

Na podstawie tak sformułowanego modelu oraz danych historycznych o cenie, wolumenie i temperaturze, przy pomocy zaawansowanych metod analitycznych, możliwa jest estymacja faktycznego wpływu ceny na sprzedaż. Innymi słowy możemy oszacować, w jakim stopniu zmiana ceny jest przyczyną zmiany wolumenu sprzedaży. Stąd już tylko krok do wykorzystania tej wiedzy w praktyce i optymalizacji ceny.

Poniższy przykład pokazuje proces poszukiwania optymalnej ceny lodów w miesiącu wrześniu przy prognozowanej średniej temperaturze dobowej 14,2 st. C. Możemy podobne wykresy wygenerować dla dowolnej wartości temperatury, co ma akurat w tym przypadku duże znaczenie. Inna będzie bowiem optymalna cena, gdy wrzesień będzie wyjątkowo ciepły, a inna gdy będą padały rekordy chłodu.

Wrzesień jest miesiącem przejściowym pomiędzy szczytem sezonu a okresem jesienno-zimowym. Do tej pory detalista tradycyjnie utrzymywał jeszcze we wrześniu dość wysokie ceny produktu. Na osi poziomej wykresu pokazujemy zmianę ceny w stosunku do ceny bazowej – oznacza ją linia 0 w okolicy środka wykresu. Niebieska krzywa pokazuje jak zmieniają się przychody ze sprzedaży w zależności od przyjętej ceny. Przesuwając się na prawo od linii 0 (czyli podwyższając cenę) obserwujemy spadek przychodów. Wyższa cena negatywnie wpływa na popyt, a większy przychód jednostkowy nie kompensuje spadku wolemu. Przesuwając się w lewo od linii 0, obserwujemy wzrost przychodów, chociaż tylko do pewnego punktu. Za nim, zwiększony wolumen sprzedaży, przestaje kompensować spadek ceny. Ten  punkt oznacza punkt optymalnej ceny – oznaczony pionową linią przerywaną. Model sugeruje, że optymalna cena jest o 80 groszy niższa od dotychczasowej ceny bazowej.

Zastosowanie się do rekomendacji i obniżenie ceny powoduje wzrost obrotów o nieco ponad 26% w stosunku do scenariusza bazowego. Obrazuje to poniższy wykres.

Przedstawiona w artykule metoda daje olbrzymie możliwości, wykorzystując najnowsze osiągniecia badawcze w dziedzinie sztucznej inteligencji i analizie przyczynowej.  W praktyce oczywiście dla większej dokładności model powinien uwzględnić także dodatkowe czynniki takie jak ceny innych produktów, ceny u konkurencji, reklamy, ulotki, gazetki, oferty, promocje, czynniki makroekonomiczne. Pełne rozwiązanie daje także o wiele bardziej dogłębny wgląd w sytuację. Symulacja wpływu decyzji cenowych na wolumen i przychody ze sprzedaży pomaga podejmować lepsze decyzje. Te z kolei przekładają się na wymierne efekty finansowe i mogą dać istotną przewagę konkurencyjną.

Jak przy pomocy analizy danych walczyć z utratą klientów?

Pozyskanie nowego klienta jest droższe niż utrzymanie dotychczasowego

To nie tylko powtarzany często marketingowy truizm. Badania cytowane w Harvard Business Review dowodzą, że koszt pozyskania nowego klienta może być od 5 do nawet 25 razy wyższy niż w stosunku do kosztu utrzymania klienta w zależności od branży. A poprawa wskaźnika retencji o zaledwie 5% może przełożyć się nawet na 25-procentowy wzrost zysków. Jak więc walczyć z utratą klientów i podwyższać retencję? W jaki sposób analiza danych może nam w tym pomóc?

Odchodzenie klientów (ang. churn lub attrition) jest zjawiskiem nieuniknionym i niemożliwe jest jego całkowite wyeliminowanie. Część klientów bez względu na podejmowane wobec nich działania odchodzi. Przykładowo dlatego, że przeprowadza się poza obszar działania firmy lub przestaje być grupą docelową i nie potrzebuje już dłużej naszego produktu. Pozostała część jednak rezygnuje, wybierając ofertę konkurencji. Tym odejściom można by było zapobiec. Gdyby zostały podjęte działania. Właściwe działania, we właściwym momencie. Kluczem do tego są:

  • przewidzenie ryzyka odejścia klienta z odpowiednią trafnością i wyprzedzeniem
  • zrozumienie czynników, które wpływają na ryzyko utraty klienta

Rozwiązaniem obu problemów może być antychurnowy model predykcyjny zbudowany przy pomocy uczenia maszynowego. Model taki zdolny jest do przewidywania ryzyka utraty konkretnego klienta. Identyfikuje przy tym najważniejsze czynniki związane ze wzrostem tego ryzyka tak w wymiarze ogólnym dla całej bazy klientów, jak i indywidualnym dla pojedynczego klienta w jego specyficznej sytuacji. Tego rodzaju modele predykcyjne mogą wykorzystywać dowolną definicję „churn” i znajdują zastosowanie zarówno w biznesach, gdzie odejście klienta jest wyraźnie zaznaczone w czasie (np. wygaśnięcie/wypowiedzenie umowy), jak i takich, gdzie klient po prostu przestaje powracać i dokonywać kolejnych zakupów.

Najważniejsze czynniki determinujące odejście klienta

Jak już wspomnieliśmy model predykcyjny pomaga zidentyfikować najważniejsze czynniki wpływające na zagrożenie odejściem klienta. Wykresy poniżej pochodzą z rzeczywistego modelu predykcyjnego zbudowanego na bazie jednego z kontrahentów Data Science Logic. Zmienione zostały jedynie niektóre nazwy zmiennych (w tym nazwy kategorii produktowych). Warto podkreślić, że jest to branża cechująca się relatywnie niską częstotliwością zakupów (przeciętnie kilka razy w roku) i dużą rotacją klientów.

model-predykcyjny-odchodzenia-klientów

Wykres na górze pokazuje cechy klientów, które w największym stopniu wyjaśniają prawdopodobieństwo odejścia. Jak widać kluczową zmienną jest liczba dni od ostatniej wizyty z zakupem. Nie jest to zaskakujące. Im dłużej nie było klienta, tym mniejsza szansa, że wróci. Model pozwala jednak precyzyjnie określić, w którym momencie wzrost ryzyka jest największy i kiedy trzeba podjąć zdecydowane działania. Jak widać na dolnym wykresie do około 365 dni ryzyko rośnie liniowo. Po przekroczeniu jednego roku nieaktywności, krzywa ryzyka staje się bardziej stroma. Jest to już ostatni moment na podjęcie kampanii antychurnowej.

Interesująca jest także druga pod względem ważności zmienna – liczba wizyt z zakupem produktu z kategorii „A” w ciągu ostatnich 12-mcy. Produkty te są wyjątkowo dobrze oceniane przez klientów i pozytywnie wpływają na ich satysfakcję i retencję.

Oprócz ogólnych wniosków na temat czynników wpływających na zagrożenie utratą klientów, model pozwala na predykcję prawdopodobieństwa utraty konkretnej osoby i wskazanie konkretnych cech, które w jej przypadku to ryzyko zwiększają lub zmniejszają, co przedstawia wykres poniżej. W jego przypadku ryzyko jest stosunkowo niskie (35,5% w stosunku do bazowych 49,6%). Ryzyko zmniejszają m.in. średnia wartość wizyty oraz liczba wizyt w ciągu ostatniego roku. Klient nie korzysta natomiast z produktów wspomnianej wcześniej kategorii „A”, co podwyższa ryzyko odejścia. Zachęcenie (np. przez odpowiednia kampanię) do wypróbowanie produktów z tej kategorii prawdopodobnie w jeszcze większym stopniu obniżyłoby ryzyko jego odejścia.

powody-odchodzenia-klientów

Radzenie sobie z migracją klientów jest jednym z najważniejszych wyzwań stojących obecnie przed firmami, zważając na to jak kosztowne może być później pozyskanie nowego klienta. Dzięki modelowaniu antychurn dowiemy się, którzy klienci mogą odejść i dlaczego, jakie są objawy zwiększającego się ryzyka odejścia, a także w jaki sposób najlepiej zapobiec odejściu.