APPLE SCEGLIE IL RICONOSCIMENTO FACCIALE
- 13-01-2016
- Amministratore
Ebbene si, Apple inserisce all’interno del suo business l’analisi emotiva e lo fa acquistando un’azienda specializzata nella lettura digitale delle espressioni emozionali del volto. Stiamo assistendo ad una divulgazione massiccia sul mercato di osservazione non verbale. Bisogna prestare attenzione alla qualità dell’analista che si sceglie, soprattutto se quest’ultimo è una macchina.
Negli ultimi anni si è potenziata la ricerca e lo sviluppo dei software per la lettura delle emozioni, ma attualmente siamo ancora lontani da un sistema che possa sostituire l’analista umano. Le macchine intelligenti finora elaborate hanno difficoltà di precisione nell’analisi di espressioni facciali, motorio gestuali, e non integrano i vari canali comunicativi.
Come un analista, il software parte dal punto di forza del concetto che esiste una gamma di espressioni facciali universali. Quasi tutti gli strumenti informatici però si fermano a 6 o 7 emozioni primarie, non includendo quelle secondarie, i manipolatori e i segnali della conversazione. Possono così facilmente fornire risultati errati.
Pochissimi sono ancora i software che interpretano i gesti e le posture del corpo, e non fanno un integrazione con le espressioni facciali. Così, ad esempio, possono confondere le espressioni di orgoglio con quelle del disprezzo.
Se le macchine miglioreranno le loro prestazioni rappresenteranno un valido aiuto per l’analista umano nel suo lavoro. Ma non lo potranno sostituire in quanto l’impostazione della metodologia di analisi, la lettura dei risultati, la procedura di analisi sono le competenze da cui non è possibile prescindere per ottenere un profiling attendibile della persona.
Su questo argomento la Dott.ssa Legisa del nostro laboratorio ha avuto recentemente un’intervista sul giornale nazionale La Repubblica.
NeuroComScience insegna le competenze necessarie per l’analisi. Contattaci.