Lo status del sentiment

A che punto siamo con la misurazione del cosiddetto sentiment? Siamo in grado, finalmente e senza alcun tipo di contatto diretto con le persone, di sapere quali emozioni provano? Il tema è controverso ma richiede di metterci d’accordo su alcuni fondamentali, per non rischiare di perdere tempo ed energie su grafici, tool e analisi disperanti.

___STEADY_PAYWALL___

Parliamoci chiaro: il sogno di chiunque è quello di poter analizzare un grafico di Google Analytics magari comparato a una mappa di calore di HotJar e sapere che cosa hanno fatto esattamente le persone per arrivare fino a quel punto lì, che cosa hanno provato e perché hanno fatto determinate scelte, in modo da poter calcolare la formula perfetta per il tuo funnel di conversione.

Questo sogno si scontra spesso con la realtà e, altrettanto spesso, si trasforma in illusione o, peggio ancora, in analisi biased che prendono i dati per trarre le conclusioni desiderate.

Questo non significa che si debba rinunciare alle misurazioni, ma che bisogna sapere perfettamente cosa si sta facendo per evitare di perdere troppo tempo. Sul tema, una delle letture che mi ha aperto occhi e mente, è Empathic Media: The Rise of Emotion AI (il link rimanda a un sunto, un report tecnico del libro che può già valere una prima scrematura ma non rende giustizia alla complessità del lavoro integrale). Il libro è rigorosissimo, si basa su oltre 100 interviste con persone che lavorano nel mondo della tecnologia – da semplici start-up a Facebook ad associazioni che si occupano della tutela della privacy. L’obiettivo è quello di comprendere lo stato dell’arte della comprensione delle emozioni degli esseri umani da parte dei sistemi che si basano su intelligenza artificiale.

La questione non è né fantascientifica né già compiuta, ovviamente.

Ed è molto più di misurare i termini che vengono usati in una frase scritta o le reaction che vengono lasciate su Facebook.

L’autore, Andrew McStay, smonta tutta una serie di facili scorciatoie costruendo un percorso che è anche filosofico e che parte da una domanda fondamentale: esistono davvero delle emozioni base che proviamo tutti, indipendentemente da estrazione sociale, contesto, vita e lavoro, cultura, origini geografiche, periodo storico?

A leggere, per esempio, l’Atlante delle emozioni umane, parrebbe proprio di no. E se non vale per le emozioni base, vale forse per quelle più complesse? Prima dell’esistenza dell’iperconnettività, per esempio, qualcuno avrà mai provato la Fear Of Missing Out? Un sorriso in Italia è come un sorriso in Giappone? Una parolaccia può indicare una reazione negativa indipendentemente dalla frase in cui si trova? Esistono dei segnali fisici univoci che indicano se stai provando agitazione o fastidio o nervosismo o noia o smania di fare qualcos’altro o voglia di dare un pugno in faccia a chi stai leggendo se solo ce l’avessi davanti? Possiamo davvero capire se qualcuno sta mentendo osservandolo da vicino come in Lay to me? E una quantità enorme di dati ci può aiutare in una generalizzazione che sarebbe il sogno di qualunque operatore del marketing, cioè la comprensione profonda e predittiva delle emozioni degli esseri umani?

Le domande sono retoriche ed è chiaro che – se certi meccanismi istintivi sono dati per assodati – McStay opta per una visione più complessa della disciplina.

Il primo consiglio per quanto riguarda le applicazioni pratiche di questa storia che potrebbe sembrare un po’ troppo teorica è quello di diffidate dell’ennesimo grafico che ti dice come la pensano le persone, magari con semplificazioni manicheiste che dividono fra emozioni negative e positive.

Il secondo consiglio è quello di avvicinarsi a strutture che in maniera dichiarata si occupano di raccogliere informazioni per tradurle in comprensione delle emozioni. E di farlo con consapevolezza e con cautela.

La app dalla quale si può partire – magari leggendo il libro di McStay, come ho fatto io – è Moody, sviluppato da Sergata, una software house che si occupa anche di sviluppo di app per clienti terze e che, come fa notare McStay, ha lavorato a stretto contatto con ambienti legati alla security e all’intelligence in Israele. Il dato non è messo lì solo per alzar polveroni e spaventare.

Che cosa fa Moody?

Ti chiede accesso al microfono del tuo smartphone. Una volta che glie l’hai concesso, fai il “tap” sul simbolo del microfono e cominci a parlare.

Moody cerca di capire che emozioni stai provando mentre parli (o che emozioni sta provando la persona che vuoi “misurare”.

Poi ti propone il risultato, sotto forma di grafico e di parole chiave e volti. Siccome non ha alcuna certezza in merito, per “apprendere” meglio, ti chiede se puoi confermare o meno di aver provato quel tipo di emozione. Così.

 

Poi cerca di tradurre il tutto in un sunto finale con tanto di grafichetto.

 

E qui, come diceva Paolo Bonolis in Bim Bum Bam, casca l’asino. Tutti i sistemi di misurazione delle emozioni, per avere una buona accuratezza, allo stato attuale delle tecnologie hanno bisogno della conferma dell’essere umano.

Problemi dal punto di vista di queste tecnologie:

  • se sai di essere sotto misurazione, puoi alterare la voce, il respiro, persino la frequenza cardiaca
  • se devi confermare o meno le emozioni potresti mentire
  • potresti non riconoscere l’emozione e quindi sbagliare, involontariamente
  • non è detto che esistano emozioni base
  • non è detto che i segnali fisiologici funzionino

Per esempio? In una delle registrazioni prova che ho fatto, parlavo lentamente e a bassa voce. E la app ha tradotto questo (probabilmente misurando la pressione sonora della mia voce e la frequenza dell’onda) in “tristezza”.

Problemi dal punto di vista delle persone là fuori (e anche di noi):

  • non sai come vengono usati i dati sulle tue emozioni (altro che GDPR)
  • il meccanismo potrebbe “misurarti” costantemente, una volta ricevuta l’autorizzazione ad accedere all’hardware del tuo smartphone, per evitare che tu possa alterare i tuoi comportamenti
  • i dati complessivi potrebbero essere messi a disposizione di governi per il controllo o di aziende private per scopi analoghi

Possibili applicazioni

  • nella sicurezza
  • nella sanità
  • nel gaming
  • nel marketing
  • nell’informazione

Uno dei punti cruciali di queste App (se sei fra quelli che condividono un po’ di paranoia per il futuro non ti farà piacere sapere che Facebook ha sviluppato un brevetto per la comprensione delle emozioni delle persone attraverso camera e microfono del tuo smartphone) è proprio il fatto che non sappiamo assolutamente che cosa se ne fanno di questa comprensione profonda (o perlomeno di questo tentativo di esplorare così approfonditamente l’animo umano).

In uno dei capitoli più interessanti del libro, quello dedicato alla sicurezza, si spiega che ci sarebbero già le tecnologie per utilizzare strumenti di realtà aumentata a supporto delle forze dell’ordine, per misurare sia la situazione di stress di chi le indossa (il poliziotto di turno, per esempio, per valutare se abbia bisogno d’aiuto). Il prezzo da pagare per questa misurazione è che, ovviamente, ti rende punibile in caso di errore, ti controlla e via dicendo. Insomma, il tema è complesso e controverso (figuriamoci: non si è trovato un accordo nemmeno per l’identificazione dei poliziotti di turno). La medesima tecnologia potrebbe essere utilizzata, in un futuro non troppo distopico, per prevedere azioni criminali e supportare le forze dell’ordine in termini di prevenzione. Bello. Ma… e se la previsione fosse sbagliata?

Così, per non sbagliare, ho usato Moodies per provarla, per questo pezzo. Ho alterato volutamente il mio stato d’animo e ho mentito in fase di feedback e poi l’ho disinstallata, giusto per provare quel minimo di difesa rispetto ad una sfera così intima come le mie emozioni, che so comunque essere oggetto di studio. Poi ho riso di me stesso.

Che cosa possiamo fare come operatori di un settore o di una serie di settori che potrebbero beneficiare di questo tipo di tecnologie e conoscenze? Possiamo prendere atto del fatto che questo è il mondo che esiste, e dunque lavorarci.

  • lavorare perché ci siano protocolli etici nella raccolta e nell’uso dei dati
  • diffondere quanto più possibile la consapevolezza di questo tipo di tecnologie, che esistono già e misurano già e operano già, senza generare inutili paranoie ma illustrando anche i potenziali effetti collaterali di big data in mano a persone, organizzazioni, governi poco interessati ai protocolli etici
  • mantenere su un piano umano e relazionale l’approccio a queste tecnologie
  • collaborare con gli ingegneri per la scrittura degli algoritmi delle unità di AI che si preoccupano di dare delle risposte a input emozionali
  • utilizzare a nostra volta i dati in maniera etica
  • smettere di parlare a sproposito di misurazioni del sentiment per riempire una slide in più o per fare bella figura sui social o con un cliente
  • parlare della misurazione e anche degli errori che la misurazione comporta
  • rendere questo tipo di argomenti parte della conversazione, sia fra operatori tecnici sia fra persone con competenze umanistiche e ridurlo per la comprensione dei non addetti ai lavori

(AP)