
Case History Moreschi: la matrice RFM per la segmentazione dei clienti in base al comportamento d’acquisto e quanto influisce su una strategia di marketing
E’ sempre più importante per le aziende riuscire a comprendere il comportamento dei propri clienti. Le strategie di marketing necessitano infatti informazioni sempre più specifiche e dettagliate per poter competere sul mercato, ridurre i costi e, al tempo stesso, incrementare i fatturati.
- La matrice RFM
- Quali sono i vantaggi della matrice RFM?
- Case History Moreschi
- Come utilizzare i dati della Matrice RFM
- Conclusioni
Una strategia marketing che riesce a comprendere le esigenze e a segmentare i propri clienti permette all’impresa un vantaggio competitivo sulla concorrenza, in termini sia di tempo che di budget. Poter capire quali siano i cluster simili consente, infatti, di effettuare azioni mirate e rapide su un piccolo segmento dell’utenza, riducendo i costi e con risultati migliori rispetto a quelli ottenuti considerando tutti i clienti in complesso. Ci sono infatti grosse differenze all’interno della clientela e riuscire a trovare le similarità tra taluni gruppi può dare indubbiamente una marcia in più all’azienda.
La matrice RFM
Uno dei metodi più utilizzati dalle imprese per la segmentazione è quello della cosiddetta “Matrice R-F-M”, ovvero una classificazione di ciascun cliente, attraverso l’attribuzione di un punteggio per alcuni parametri. Le metriche solitamente utilizzate sono tre, ovvero la Frequenza (quante volte il cliente abbia effettuato un acquisto), la Recenza (termine coniato per indicare quando è stata l’ultima volta in cui c’è stato un acquisto) e l’importo Monetario (quanto abbia speso il cliente in complesso).
Quali sono i vantaggi della matrice RFM?
L’unione di questi parametri e la relativa somma determina un ranking per ogni cliente e permette di capire quali siano i consumatori migliori oppure quelli su cui fare azioni di marketing specifiche da parte dell’azienda: ad esempio, coloro che hanno un’alta frequenza di acquisto ma che non fanno acquisti da qualche mese, oppure chi ha effettuato alte spese in passato ma non è più cliente da un periodo elevato di tempo e così via.
La Matrice RFM prende spunto dal Principio di Pareto, ovvero la cosiddetta “Legge 80/20”. Un fenomeno, in questo caso applicato al business aziendale, per cui l’80% dei profitti di un’impresa viene determinato dal 20% dei suoi clienti, e attraverso l’analisi della matrice si è in grado di definire tale segmento.
Case History Moreschi
Sintra Digital Business ha ideato ed applicato la matrice RFM per Moreschi: un brand di calzature ed accessori artigianali made in Italy, con cui collaboriamo da parecchi anni.
Creazione del Database
A partire dai dati presenti nel gestionale, contenenti lo storico degli ordini e-commerce (sin dal 2014), abbiamo creato un database con tutte le caratteristiche relative agli ordini e ai prodotti creando un ID utente anonimo. Tale database contiene tutti i dati più significativi di ogni ordine: data, importo, tipo prodotto acquistato, categoria, collezione, taglia, magazzino di spedizione, codice prodotto, eventuale motivo del reso, ecc. ed ogni mese viene aggiornato inserendo gli ordini del mese precedente per l’elaborazione di tabelle dinamiche e grafici ad hoc su ciascuna variabile esaminata.
Creazione della Matrice
In tale modo è possibile assegnare un punteggio per ognuno dei parametri presi in considerazione per la matrice RFM: la recenza degli acquisti viene suddivisa in base a periodi mensili stabiliti, variabili nel tempo (es. negli ultimi 6 mesi, tra 7 e 12 mesi fa, oltre un anno fa, ecc.) e allo stesso modo l’importo viene categorizzato in classi (sia sul singolo ordine che sul totale degli acquisti) basate su diverse fasce di costo.
I parametri che determinano il ranking del cliente
La struttura del database visualizzata attraverso l’elenco di tutti i clienti di Moreschi (invece che rispetto agli ordini) permette di calcolare anche il parametro della frequenza di acquisto, associando ad ogni riga i dati di ogni acquirente. In tal modo è possibile analizzare per ciascun cliente tutti i dati relativi agli acquisti: quante volte hanno comprato, quando hanno acquistato, quanto hanno speso, il numero di prodotti contenuti negli ordini, l’importo medio e così via.
Anche in questo caso si assegna un punteggio alla frequenza di acquisto (per esempio: 1 ordine, 2-3 ordini, ecc.) e l’insieme dei tre parametri sommati (R-F-M) determina il ranking del cliente, convenzionalmente compreso tra 12 (o 15) punti (il massimo, ovvero un cliente con tanti acquisti, di cui almeno uno recente, e con alto importo monetario) e 3 punti (il minimo, ovvero un cliente che ha effettuato un solo ordine, molto datato come tempistica e di basso importo).
Come utilizzare i dati della Matrice RFM
Tutti questi cluster entrano in una matrice i cui incroci ci dicono il comportamento degli utenti, dai più virtuosi a quelli meno performanti e da questi incroci possono essere utilizzate le strategie di marketing da parte dell’azienda (i dati contenuti nel grafico sono esemplificativi e contengono valori fittizi, inseriti al solo scopo di mostrare la struttura della matrice).
Tra i vari cluster, può essere preso in considerazione, infatti, il segmento di coloro che hanno speso tanto ma hanno una recenza bassa (ovvero che non fanno acquisti da un po’) ed operare con specifiche campagne di remarketing. Oppure possono essere previste promozioni o vantaggi negli acquisti solamente per i clienti “top”, o ancora si potrebbe scegliere di escludere dagli invii di mail o newsletter gli utenti presenti nel cluster peggiore, cioè coloro con un solo acquisto, di basso importo e con recenza lontana.
Ma non solo. Per coloro che hanno già speso una determinata cifra ma non acquistano da un po’ di tempo possono essere create campagne di upselling, oppure fare altre azioni mirate per chi ha effettuato tanti acquisti ma non nel periodo più recente… e così via: quasi ogni cluster può essere utilizzato per una differente strategia di marketing. In questo modo gli utenti sono coinvolti in una strategia “personalizzata” in base al loro comportamento di acquisto e risulta più facile migliorare tre parametri molto importanti per il business: la fidelizzazione del cliente, il tasso di risposta e il tasso di conversione.
Conclusioni
E’ noto ed abbastanza intuitivo (ma tale informazione si può desumere attraverso la matrice R-F-M) che i clienti più ricettivi siano quelli che hanno acquistato recentemente, ma anche i clienti abituali e quelli che spendono di più, rispetto alle altre categorie di acquirenti. Valorizzare tali clienti, ma nello stesso tempo riuscire a fare azioni migliorative anche sugli altri, porta, ovviamente, grossi benefici per l’azienda, in quanto acquisire un cliente nuovo ha costi molto superiori al mantenimento di un cliente già presente.
Pertanto risulta evidente come ciascun e-commerce dovrebbe analizzare i dati di vendita anche in questa ottica per poter applicare le strategie più appropriate sui propri clienti, con l’obiettivo di far crescere ancora i volumi e migliorare le proprie KPI aziendali.
- Fonti:
- https://www.neting.it/blog/analisi-rfm-segmentazione-clienti.html
- https://ecommerce-school.it/blog/segmentare-gli-utenti-la-matrice-rfm/
- https://www.giuseppecontartese.it/analisi-rfm-segmentazione-clienti/
- http://www.themarketingfreaks.com/2015/09/analisi-rfm-per-il-marketing-e-la-segmentazione-dei-clienti/
CONTATTACI SUBITO PER UNA CONSULENZA

Google acquista Fitbit e tutti i suoi dati: quali nuovi scenari si possono creare?
Da pochissimi giorni è stata ufficializzata l’acquisizione da parte di Google dell’azienda Fitbit, specializzata nel settore della progettazione e produzione dei dispositivi wearables (braccialetti fitness e smartwatch).
- Fitbit e l’affare da due miliardi di dollari
- Il mercato dei Big Data
- Il patrimonio di dati di Google
- Cosa ne farà Google di tutti questi dati?
- I Big Data e il Settore Sanitario
- Fitbit e Alexa
Fitbit e l’affare da due miliardi di dollari
Ciò ha generato grande soddisfazione da parte di Fitbit, il cui co-fondatore James Park ha affermato che “Google è il partner ideale per portare a termine la nostra missione. Grazie alle risorse di Google e alla sua piattaforma globale, Fitbit sarà in grado di accelerare l’innovazione nel campo degli oggetti connessi, realizzare maggiori economie di scala e rendere gli strumenti sanitari ancora più accessibili a tutti“.
Per la compravendita, Google ha speso oltre 2 miliardi di dollari, una cifra importante per riuscire ad aumentare la presenza sul mercato in questo settore, che sta diventando sempre più strategico nell’economia mondiale. L’intenzione di Google è quella di portare investimenti e sviluppi al proprio sistema operativo Wear OS, potendo sia collaborare con i vari produttori di wearables presenti sul mercato che, nello stesso tempo, creare nuove proprie soluzioni hardware e software.
Il mercato dei Big Data
Tale acquisizione lascia tuttavia parecchi scenari aperti. Il business di Fitbit, infatti, è basato prevalentemente sui dati: gli orologi ed i braccialetti fitness rilevano in tempo reale parecchie informazioni sull’utilizzatore (quanti passi fa, quanto dorme, il battito cardiaco, il peso, l’attività fisica, la pressione, talvolta il tipo di alimentazione e così via). Sono tutti dati che hanno un valore economico enorme: è infatti stimato che il mercato dei big data del settore salute ed healthcare attualmente valga 20 miliardi di dollari, ma tra cinque anni tale valore sarà addirittura triplicato. C’è quindi un business in costante aumento ed ora Google è diventato proprietario di tali dati, oltre a tutti quelli che saranno rilevati da oggi in poi. Ma quale uso ne farà?
Il patrimonio di dati di Google
Il garante della Privacy, Antonello Soro, è piuttosto allarmato e dichiara che “…il controllo di un così grande patrimonio informativo produce – come nel caso degli altri giganti del web – un potere abnorme nella disponibilità di pochi soggetti privati che incide negativamente sulla tenuta delle democrazie nel pianeta“. Ovvero, così come indicato dal Parlamento Europeo nel 2017, avere un’enormità di dati nelle mani soltanto di poche aziende può diventare un pericolo per la privacy, ma non solo.
Cosa ne farà Google di tutti questi dati?
Google ha comunque dichiarato che non userà i dati per le pubblicità e che tali dati saranno gestiti nel rispetto delle politiche sulla Privacy, ma, nonostante questo, ci si chiede cosa abbia in mente il colosso californiano. Ottenere un’ampia serie di dati personali relativi alla salute di un utente, unito al resto delle attività già presenti per l’azienda, può far sì che Google possa tracciare una grossa fetta delle abitudini e delle attività di una persona, conoscendo quindi quasi tutto ciò che faccia (interessi, ricerche, acquisti, attività fisiche, movimenti, sonno, ecc.).
Per questo ci si sta chiedendo come Google otterrà nuovi filoni di business e viene ipotizzato che possano essere creati prodotti relativi alla salute oppure all’alimentazione, combinando tutte le informazioni di cui dispone e riuscendo a coinvolgere tutti gli attori necessari.
I Big Data e il Settore Sanitario
Fitbit infatti collabora da anni con importanti partner nel lato sanitario, quali compagnie di assicurazione sanitaria, programmazione di benessere aziendale ma anche alcune entità governative, pertanto Google potrebbe trarre grande vantaggio dall’esperienza e dalle relazioni di Fitbit nel lavorare a fianco di attori interessati al mondo della sanità per sviluppare ulteriormente le proprie strategie sui dispositivi wearables. In questo modo Google riuscirebbe a mettere in relazione i propri canali di distribuzione e le capacità hardware e software con i grossi partner del mondo della sanità, ottenendo un puzzle completo per gli scopi auspicati, ovvero “riuscire a creare strumenti che permettano alle persone di migliorare le proprie conoscenze, la salute, la felicità ed il successo, facendo attenzione alla privacy e alla sicurezza”, così come affermato pochi giorni fa da Rick Osterloh, vicepresidente nel settore Dispositivi e servizi di Google.
Fitbit e Alexa
Un’altra questione importante da tenere d’occhio è quella relativa all’assistente vocale, Fitbit ha iniziato a implementare sui nuovi dispositivi, come Versa 2, l’integrazione nativa con il suo maggior competitor, Alexa di Amazon, facendo diventare lo smartwatch ancora più smart con alcuni funzioni come il controllo delle luce della casa e anche altri tanti oggetti collegati all’IoT.
A questo punto Google dovrà fare una scelta: mantenere i dispositivi Fitbit attualmente come sono e probabilmente iniziare a creare i suoi propri smartwatch, magari chiamandoli Pixel Watch, oppure seguire quello che ha iniziato Fitbit cambiando solamente l’assistente nativo con l’implementazione di Google Assistant.
Restiamo in attesa quindi di capire cosa porterà questa acquisizione nei prossimi mesi e nei prossimi anni e staremo a vedere come si evolverà il settore healthcare a livello digitale. Lasciamo a Google la risposta!
- Fonti:
- https://www.hwupgrade.it/news/mercato/google-acquista-fitbit-per-entrare-direttamente-nel-mondo-dei-wearables_85283.html
- https://www.agi.it/economia/google_fitbit_dati-6468178/news/2019-11-03
- https://www.hdblog.it/indossabili/articoli/n511679/google-alphabet-fitbit-acqusiizione/
- https://time.com/5717726/google-fitbit/
- https://www.blog.google/products/hardware/agreement-with-fitbit
CONTATTACI PER AVERE MAGGIORI INFORMAZIONI

Usare Apache Nifi per Connettere sistemi e Gestire grandi flussi di dati
Ciascuna realtà aziendale deve fronteggiare la sfida di amministrare correttamente l’enorme mole di dati che produce. Fatture, dati dei prodotti, clienti, bolle di spedizione sono solo una piccola parte delle informazioni che quotidianamente le nostre aziende si trovano a gestire. Per non parlare del GDPR e la valenza legale che i dati personali arrivano ad avere. Connettere sistemi, validare i dati, indirizzare parzialmente il dato è un lavoro complesso.
Probabilmente fino ad ora la tua azienda ha gestito il problema creando tanti canali di comunicazione che diventano sempre più difficili a da monitorare e manutenere. Per fortuna la fondazione Apache ha un prodotto per risolvere questi nostri problemi ed è Apache NIFI.
Apache NIFI è un applicativo Java di modellazione di flussi di dati (DFM – Data Flow Modelling) che permette di visualizzare, monitorare e modificare sistemi di integrazione e passaggio di dati.
- Di cosa tratterà e non tratterà questo articolo
- Le 4 grandi V dei sistemi di gestione di BigData
- Prospettiva a grandi linee del problema
- Apache NIFI, l’applicativo
- Consapevolezza dello stato dei flussi
- Quindi, quando conviene usare Apache NIFI?
Di cosa tratterà e non tratterà questo articolo
L’obiettivo di questo articolo è quello di darti una visione ad alto livello delle capacità di Apache NIFI, la sua interfaccia e le potenzialità. Scenderò quanto basta nel linguaggio tecnico sopratutto per introdurre concetti e sistemi. Non parlerà invece di problemi tecnici come l’installazione, la sicurezza, la configurazione, mantenendomi ad un livello più alto.
Le 4 grandi V dei sistemi di gestione di BigData
Facciamo un passo indietro, perché utilizzare un sistema che utilizza i dati? Quali sono le caratteristiche necessarie?
- Queste sono le 4V su cui devono essere pesati sistemi di gestione di grandi informazioni
- Volume: essere in grado di gestire grandi quantità di informazioni; Giga? Tera? Peta?
- Veracity: veridicità dell’informazione, ovvero la certezza che l’informazione non cambi nel suo significato durante i passaggi e le trasformazioni o anche quanto il dato deve essere ripulito prima di essere utilizzabile.
- Variety: tipologia di dati che un sistema può gestire (file, immagini, csv, db, etc..) e la frequenza con cui il dato varia nel tempo.
- Velocity: rapidità con la quale un’infomazione viene elaborata.
Apache NIFI, come emerge dai punti già affrontati, soddisfa molte di queste condizioni.
Prospettiva a grandi linee del problema
Semplificando il più possibile il problema abbiamo la seguente situazione:
Dato un input e un output dobbiamo raggiungere i dati, elaborarli e poi restituirli all’output nel nuovo formato. Se volessimo implementare da zero questa integrazione dovremmo farlo con qualche centinaio di righe di codice. Su Apache NIFI invece questo comportamento si può simulare con una struttura di questo tipo.
Intuitivo
Oltre alla rapidità di creazione, Apache NIFI ci permette di visualizzare in modo espressivo il flusso fornendoci una comprensione e una malleabilità migliori.
Potente
Apache NIFI presenta all’interno innumerevoli connettori (FILE, DB, REST, WS) già implementati per ottenere e scrivere dati. A corredo ha un’ampia gamma di controller per la validazione e la manipolazione del dato. In questo modo la maggior parte del lavoro sarà trovare il controller giusto e quindi configurarlo appropriatamente.
NB: Non confondiamo APACHE NIFI con un ETL (Extract, Transform, Load) System. Le capacità di trasformazione e manipolazione non sono così potenti; quindi nel caso in cui serva una massiva trasformazione del dato è consigliabile sviluppare dei moduli dedicati, oppure integrare il flusso di dati un un ETL che si occuperà del lavoro.
Scalabile e stabile
L’infrastruttura logica su cui è stato edificato Apache NIFI si avvale delle migliori linee guida per quanto riguarda scalabilità e stabilità.
Il sistema si può avvalere di un cluster con numerose istanze per processare un numero superiore di dati. L’utilizzo della backpressure consente di non avere dei down causati da picchi di dati comunicati ma piuttosto di accodarli e processarli utilizzando al massimo le risorse
Rende più intuitiva la comprensione fra data analyst e gli altri
Il flusso di dati espresso tramite Apache NIFI è eccellente anche come documento per la comunicazione interna. Un non tecnico può agevolmente comprendere i passi all’interno di un flusso e il personale tecnico può confrontarsi con più efficacia su implementazioni o revisioni.
Dobbiamo quindi utilizzare Apache NIFI?
In base alle caratteristiche elencate è lampante che Apache NIFI sia un ottimo strumento per la gestione di flussi di dati. Nel caso in cui le integrazioni nella vostra infrastruttura siano già presenti numerose suggerirei di introdurre gradualmente Apache NIFI, in alcuni casi rimpiazzando la struttura in essere, in altri gestendo l’input e l’output come se fosse un processo esterno.
Apache NIFI, l’applicativo
Terminata la descrizione di massima entriamo più in dettaglio nel funzionamento dell’applicativo. Apache NIFI è un applicativo Web Based e l’interfaccia è accessibile da un qualsiasi browser.
Strutture principali
Come detto in precedenza lo schema base di connessione in Apache Nifi è molto semplice, introduciamo quindi i 4 interlocutori principali:
FlowFile
Il FlowFile è l’informazione minimale veicolata all’interno dell’applicativo. E’ composta da un contenuto (il corpo dell’informazione) e degli attributi chiave -> valore che vanno a definire e caratterizzare l’informazione. Tutti i FlowFile hanno di base uuid, filename e path.
Processor
Il Processor rappresenta l’azione. Ogni operazione di recepimento, trasformazione o organizzazione dei FlowFile è operata da un Processor. Apache Nifi fornisce di base numerosi Processor già implementati e configurabili. E’ possibile creare dei Processor custom in java per espandere le potenzialità di questo strumento.
Relationship
Ogni processo può avere zero o più relazioni orientate con altri processi. Queste relazioni trasportano i risultati di un processo verso un altro e sono definiti dall’esito dell’operazione, ad esempio:
- success
- fail
- retry
- …
Le relazione possono essere multiple per lo stesso output; quindi una trasformazione potrà essere inviata e salvata nel DB e allo stesso tempo scritta all’interno di un file di log. Le relazioni veicolano FlowFiles tramite delle Connection.
Connection
Le connessioni fra Process contengono una coda di FlowFiles inviati dal processo mittente e in attesa del processo emittente. Una Connection può veicolare più tipi di Relationship e può esistere una sola connessione fra 2 processi. La coda presente all’interno della connessione permette di gestire la stabilità interna del flusso: nel caso in cui un processo generi troppi dati, questi verranno smaltiti dal processo successivo senza sovraccaricare il sistema (Internal BackPressure).
Controller Service
Il Controller Service è il contesto in cui operano i Process, questo mette a disposizione configurazioni, connettori e altre informazioni a tutti i processi all’interno del flusso.
Process Group locali e remoti
Considerando la complessità di un flusso di informazioni e l’importanza di avere un’informazione chiara e visibile, Apache Nifi fornisce la possibilità di aggregare strutture di Process all’interno di Process Group. Sarà quindi possibile creare schemi di gruppi di processi che andranno a modellare trasformazioni complesse per poi poter vedere in dettaglio l’implementazione di ogni singolo passo. Apache Nifi è predisposto anche per la comunicazione ad istanze remote di Apache Nifi tramite connettori.
Consapevolezza dello stato dei flussi
Conosci lo stato del trasferimento dei tuoi flussi?
Quanti dati vengono passati in un giorno?
Apache Nifi fornisce delle metriche utili stimare tutti gli spostamenti all’interno dei Flusso di dati.
Statistiche in tempo reale
Direttamente dal Flusso visuale dei dati è possibile monitorare il numero di pacchetti passati negli ultimi 5 minuti, i pacchetti in coda e quelli processati sia a livello di numero che di dimensione. Questi dati permettono di capire lo stato istantaneo della piattaforma ed eventuali colli di bottiglia.
Affidabilità
Apache Nifi si avvale di FlowFile Repository e Provenance Repository per tenere traccia di tutte le informazioni riguardanti il FlowFile:
- FlowFile Repository mantiene l’ultimo stato di ogni FlowFile, questo permette di poter recuperare velocemente da un’interruzione del servizio software o hardware
- Provenance Repository mantiene invece lo storico dei FlowFile permettendo di visualizzare ogni suo stato precedente. Questo è molto utile per indagare su trasformazioni impreviste o perdite di informazione.
La pagina di Data Provenance aggrega eventi e trasformazioni riguardanti i FlowFile.
Bulletin Board
Oltre a monitorare statistiche e stato dei file, Apache Nifi possiede una Bulletin Board che raccoglie tutti gli errori verificatesi. Questi saranno visibili come dei postId all’interno del process dove si è verificato l’errore e raggruppati (sempre filtrabili) all’interno di una pagina ad hoc.
Quindi, quando conviene usare Apache NIFI?
Non esistono strumenti magici che fanno tutto, ma va ammesso che le potenzialità di Apache NIFI lo rendono un prodotto multisfaccettato. Ma la prima domanda che dobbiamo porci è: quando non usarlo?
Per piccoli sistemi o piccole integrazioni probabilmente Apache NIFI è eccessivo, a meno che non si usi su un cluster condiviso tra più clienti, così da fornire un costo del servizio più basso.
Mentre invece è eccellente per effettuare trasporti di informazioni tra vari sistemi, per lavorare sui BigData, e per importare dati.
E’ molto interessante anche perché, grazie alla gestione del carico, permette di non far collassare le varie risorse coinvolte. Utile quindi anche in casi di moli enormi di dati o di moli inaspettate. Noi l’abbiamo apprezzato per tutte questi dettagli e anche per l’interfaccia web che dona una visione completa dei sistemi e del loro stato, del carico e degli errori.
CONTATTACI PER AVERE MAGGIORI INFORMAZIONI