Técnicas y métodos de análisis de comportamiento no verbal

Para llevar a cabo análisis profesionales del comportamiento no verbal es fundamental utilizar técnicas que permiten describir objetivamente el comportamiento y atribuirle un sentido atendible. Las principales ventajas reconocidas de Análisis científicas de la comunicación no verbal son:

  • Identificar con precisión emociones y estados de ánimo de los demás Envía el mensaje
    envía
  • Anticipar el comportamiento de la persona examinada
  • Descubrir las mentiras con la integración del análisis verbal con la de las expresiones faciales
  • Identificar puntos fuertes y deficiencias en el interlocutor y en la relación interpersonal.

Es posible aprender las técnicas de análisis no verbal rápidamente gracias a una formación específica que utiliza una enseñanza interactiva y basada en ejercicios prácticos.

Las bases científicas

Un primer texto científico sobre las expresiones emocionales es el libro del neurólogo francés Guillaume Benjamin Amand Duchenne de Boulogne, titulado Mécanisme de la physionomie humaine, ou Analyse électro-physiologique de l’expression des passions applicable à la pratique des arts plastiques. Escrito en 1862 muestra el método de aplicación de los electrodos a los músculos de la cara para establecer la relación entre los movimientos faciales y las expresiones emocionales. Hasta hoy en honor al estudioso francés, la sonrisa de auténtica alegría se define como sonrisa Duchenne. Posteriormente, en 1872, Charles Darwin escribió el ensayo La expresión de las emociones en el hombre y en los animales en que plantea la hipótesis de que las emociones son innatas, ya que son un producto de la evolución. Las emociones responden a expresiones faciales y corporales que son las mismas tanto en hombres de diferentes etnias, como en primates no humanos u otros animales. Los estudios sobre las expresiones faciales de Darwin, sin embargo, no continuaron después de su muerte a causa de la hostilidad del entorno científico hacia él y sus teorías; él es criticado por haber atribuido a animales sentimientos que pertenecen, según sus detractores, sólo a los humanos y por basarse en la observación directa.

 

Los puntos de vista sobre la universalidad de las expresiones emocionales vuelven interesantes a mediados de los años 50. Investigadores eminentes como, por nombrar algunos, Friesen, Ellsworth, Ekman, Izard, Birdwhistell, intentaron demostrar su validez. Desarrollaron un conjunto de teorías, métodos y pruebas que, en su totalidad, constituyen el llamado Programa de Expresión facial. Estos estudiosos afirman que el origen de la expresión de las emociones y de la experiencia emocional deriva de un cierto número de características neurofisiológicas innatas. Existe, por lo tanto, una ruta específica para cada emoción que asegura la invariabilidad de las expresiones faciales asociadas con cada emoción. Los programas neurales innatos, heredados filogenéticamente, dan lugar a respuestas adaptativas atribuibles a los grupos emocionales. De acuerdo con la teoría evolutiva, que incluye dichas obras, las emociones tienen una función adaptativa, permiten a los individuos reaccionar con una respuesta inmediata a los estímulos internos, externos, naturales o adquiridos, así que puedan sobrevivir.

Las técnicas de análisis no verbal se dividen en dos grupos::

  • técnicas de codificación, la descripción de los movimientos de la cara y el cuerpo;;
  • técnicas de decodificación, que ayuda a la interpretación del movimiento.

Técnicas de análisis científico de las expresiones faciales


Interpretative System of Facial Expressions (ISFE)

Con el Interpretative System of Facial Expressions (ISFE) elaborado en 2013 por Jasna Legisa en el Laboratorio de NeuroComScience se obtiene una tabla sinóptica de los significados de los movimientos faciales. Es una serie de tablas y descripciones que integran y ordenan las acciones de la cara a las emociones. Las indicaciones derivan de los sistemas anteriores y de la literatura existente sobre el tema.

Además de las expresiones de las emociones primarias y secundarias, también se describen algunos señales faciales: los manipuladores, los ilustradores y los reguladores. En primer lugar, las expresiones emocionales se agrupan en las llamadas grandes familias como sugieren Hjorstjo (1969), Izard (1979) y Ekman (1983). A cada familia, entonces pertenecen muchas expresiones faciales que a pesar de las diferencias del significado de interpretación, tienen la característica común de recibir el mismo lugar emocional. Por ejemplo, en la familia de la sorpresa hay la sorpresa sincera, la simulación, el aburrimiento, el asombro, y así sucesivamente.

En las tablas de ISFE los movimientos de las emociones primarias fueron divididos en 3 categorías:

  • en la categoría 1 hay los movimientos musculares que pertenecen a una categoría emocional;
  • en la categoría 2 hay aquellos movimientos que pueden pertenecer a dos o tres familias de emociones primarias;
  • en la categoría 3, por último, hay las variantes menores de las expresiones emocionales, es decir, los movimientos que pueden formar parte de muchas familias emocionales. Esta distinción en categorías facilita la precisión de la interpretación y del análisis.

Metodo di Hjortsjo: Man’s Face and Mimic Language

Este es la primera disertación sistemática de las acciones específicas de los músculos faciales y sus significados emocionales agrupados en 8 familias de emociones. Fue elaborado en 1969 por Hjortsjo, profesor de anatomía en la Universidad de Lund en Suecia. En su manual hay la codificación y decodificación de las expresiones faciales. Gracias al método es posible determinar las contracciones de los músculos faciales, individualmente o en combinación. Los principales estudios previos a Hjortsjo fueron realizados por Landis (1924), Frois-Wittman (1930) y Fulcher (1942), que son mucho menos completos.

Maximally Discriminative Coding System (MAX)

Si hasta ahora se han descrito las herramientas de codificación, cuyo objetivo fue describir todos los movimientos de los músculos faciales, sin tener en cuenta el conocimiento del significado de este tipo de acciones, gracias a este instrumento sólo se identifican las unidades de comportamiento de los movimientos a los que los autores atribuyen un significado.El Maximally Discriminative Coding System (MAX), desarrollado por Izard en 1979, y AFFEX, preparado en 1983, que es una segunda versión de MAX, realizado así como por Izard, incluso por Dougherty y Hembree, establecen a priori configuraciones faciales, etiquetadas según las expresiones faciales típicas de emociones de ira, tristeza, miedo, interés, alegría, sorpresa, dolor, asco, vergüenza. En la práctica, se clasifica una expresión prototípica para cada emoción. Las emociones evaluadas son de disgusto, enojo, sorpresa, miedo, tristeza, alegría, interés, dolor.

Emotion FACS (EMFACS) e Facial Action Coding System Affect Interpretation Dictionary (FACSAID)

Ekman y Friesen delinean los significados interpretativos a la UA del FACS, describiendo las expresiones de 6 familias de emociones: alegría, tristeza, disgusto, enojo, sorpresa y miedo. Este trabajo, llevado a cabo en los años 80, se llama Emotional FACS (EMFACS). Desde 1994 Hager trabaja en el laboratorio y Ekman estudia las técnicas de reconocimiento computarizados automáticos de acciones faciales. Ellos desarollaron una base de datos con una nueva interfaz, creando así un sistema llamado FACS Affect Interpretation Dictionary o FACSAID.

Hanest

En el mismo año en el que aparece la primera versión del Facial Action Coding System, 1978, también apareció el Manual HANEST desarrollado por dos investigadores franceses, Ermiane y Gergerian, que tiene el mismo objetivo que es describir los movimientos faciales.

Facial Action Coding System

En 1978, Paul Ekman y Vincent W. Friesen introducen el Facial Action Coding System (FACS), en 2002 apareció la segunda versión con José Hager. Es un sistema descriptivo, entonces de codificación facial, y por lo tanto no confiere significados a las expresiones faciales. Esta es una descripción detallada de los cambios en la apariencia debidos a las contracciones faciales.

Baby Facial Action Coding System (BabyFACS)

La propia estructura del sistema de codificación que se utiliza para los adultos, se utiliza específicamente para los bebés y los niños pequeños. Oster (1993) tiene en cuenta las particularidades de la cara y ajusta las descripciones. El BabyFACS es puramente descriptivo de los cambios en la apariencia de los movimientos faciales, sin atribuirles significados interpretativos.

Ejemplo simple de codificación y decodificación de configuración de expresiones faciales (FOTO EJEMPLO)

facs

Algunas acciones básicas de la cara superior

1 – elevar la parte interna de las cejas 1A
2 – elevar la parte exterior de las cejas 2C
4 – descenso y aproximación de las cejas 4B
5 – mirada 5D
6- elevar las mejillas 6E
7- tensión del párpado 7A
Algunas combinaciones de la cara superior
1 + 2 + 4 (o 3, de acuerdo con algunas técnicas de codificación) es el prototipo del MIEDO. En ninguna otra emoción primaria se produce una combinación de este tipo.  MAR7582
4 + 5 prototipo de la cara superior de la ira.  MAR7568

Técnicas de análisis científico de los gestos y de la postura

Body Coding System

Es el sistema de codificación y decodificación de comportamiento gestual y postural para el análisis de la comunicación no verbal, desarrollado por Jasna Legisa. El Body Coding System del cuerpo analiza las expresiones no verbales del cuerpo dividiéndolas en unidades de acción con el fin de una clasificación que permite la lectura de las emociones de una persona. El Body Coding System se basa en la observación de los cambios momentáneos en la apariencia del cuerpo debidos a la actividad muscular. La técnica para medir el comportamiento motor gestual y postural nació para responder a preguntas sobre los vínculos entre las expresiones corporales y la experiencia emocional y los procesos de comunicación. Por lo que los objetivos del Body Coding System son:

  • ADOPTAR un enfoque estructurado para el análisis del comportamiento motor gestual y postural
  • DEFINIR la estructura de los movimientos y su clasificación
  • ASOCIAR movimientos y posturas hacia los significados emocionales, de conversación y cultural.

El examen es una etapa fundamental para el uso de la técnica del Body Coding System y luego ser titulados para aplicar el instrumento. Se recomienda tomar parte en la prueba final después de hacer mucha práctica en el análisis del comportamiento motor gestual, que no es suficiente, de hecho, una lectura superficial del manual. Para aprobar el examen es fundamental un buen dominio de las unidades corporales de acción y la capacidad de reconocerlas lo más rápido posible. Nuestro equipo, para ayudar y acompañar en el aprendizaje, estará siempre disponible para cualquier pregunta o preocupación.

La entidad examinadora que certifica el conocimiento del sistema de codificación gestual y postural Body Coding System se compone por dos o más codificadores BCS y analistas del comportamiento emocional de la cara y el cuerpo especificados por el laboratorio de análisis del comportamiento NeuroComScience.

The Body Action and Posture coding system

The Body Action and Posture coding system(B.A.P;. Dael, N., Mortillaro, M., y Scherer, 2012), es el sistema de codificación de la conducta motora gestual y postural que considera varias partes del cuerpo. El Body Action and Posture Coding System estudia principalmente las diferencias entre la acción y el cambio de postura, para los autores las acciones son unidades del movimiento del cuerpo que no son parte de la clasificación del cuerpo. Una unidad de acción del cuerpo es una desviación local de uno o de un grupo de articuladores (cabeza, tronco, brazos, manos) en el exterior de una configuración anterior de la postura y vuelve siempre a partir de la una o de otra configuración de postura. (Ej. sacudir la cabeza, gesto de señalar con el dedo).

En contraste con las unidades de la postura, las unidades de acción cambian con más frecuencia, y tienen un comienzo muy discreto (punto de partida), un tiempo relativamente corto plazo y un final claro (punto final). Estas acciones corporales son realizadas por la cabeza, los hombros, los brazos (codo) y las piernas (rodilla) e involucran actividades como bajar su cabeza, encogerse de hombros, gesticular, arañar, dar patadas, etc. El comienzo de una unidad de acción es el punto en el tiempo cuando el sujeto cambia la posición de reposo actual. El final de una unidad de acción es el punto en el tiempo cuando el sujeto vuelve en una posición (apagado) (la original o una nueva posición).

El Body Action and Posture coding system divide la investigación en fase de transición y fase de configuración, y siempre están relacionadas con el logro de una postura. La transición es el comienzo del punto de de partida del movimiento necesario para alcanzar la posición final, o el inicio del fotograma. La transición es el punto en el tiempo donde la transición se describe en una categoría particular de composición, o el último fotograma del vídeo si el movimiento compromiso se corta del vídeo. El fotograma se codifica como el inicio de la configuración de la postura. No todas las acciones de la conducta interrumpen una posición en el curso. Por lo tanto, es posible que una posición de una parte del cuerpo (por ejemplo la cabeza hacia adelante) no se rompe por la acción de otra parte del cuerpo (el lado de la cabeza agitación). Durante la fase de configuración de la posición final la asignatura se guarda encriptada para la dirección codificada. Esto no implica que la posición obtenida es estática.

En el Body Action and Posture coding system las posturas son diferentes de las acciones debido a que:

  1. las posturas están menos sujetas a cambios frecuentes y por lo tanto tienen una vida más larga;
  2. las posturas son robustas (pequeños movimientos no cambian ni distorsionan la postura);
  3. dado que las acciones pueden o no aparecen, el cuerpo es de forma continua en una o en otra alineación postural.

Esto significa que cuando una parte del cuerpo no está implicada en una acción, está siempre en una postura particular.

An Annotation Scheme for Conversational Gestures: How to economically capture timing and form

Otro sistema de codificación gestual fue desarrollado por Kipp et al. (2007) descrito en An Annotation Scheme for Conversational Gestures: How to economically capture timing and form (Kipp et al 2007). Su objetivo es proporcionar un buen registro en gestos que una persona hace, para aclarar el significado de los gestos que se hacen durante una conversación, tratando de dar una explicación universal de estos movimientos, estudian sobre todo los brazos y las manos y dejan el resto del cuerpo. Realizan una investigación principalmente en la medición de la estatura, la distancia, el tipo de orientación radial, la trayectoria de los brazos y las manos, pero también en este caso carecen de los movimientos complejos y en la descripción de todos los movimientos que se pueden ejecutar desde el cuerpo. El Neuroges (NGS) system describe los gestos en 3 módulos, especialmente teniendo en cuenta los movimientos de las manos:

  1. cinésica gestual,
  2. codificación relacional y bimanual
  3. codificación de funciones gestuales.

El primer módulo interesa las características de movimientos de la mano: movimiento hacia ningún movimiento, la trayectoria del movimiento, la dinámica (es decir, tiempo, flujo). El segundo módulo se refiere a la relación entre las dos manos, la relación espacial y la función relacional. La tercera parte se refiere a la función y clasificación de los gestos.


Share This