1. Home /
  2. Publicaciones de patentes /
  3. Sistema de evacuación de patrones emocionales faciales basado en interacción de metodologías de investigación , extracción de datos, modelos teóricos propios e inteligencia artificial
logo-patente

Patente nacional por "Sistema de evacuación de patrones emocionales faciales basado en interacción de metodologías de investigación , extracción de datos, modelos teóricos propios e inteligencia artificial"

Este registro ha sido solicitado por

DESARROLLO DE INTELIGENCIA ARTIFICIAL Y PSICOLOGIA S.L.

a través del representante

MARÍA JOSEFA VILLA JIMÉNEZ

Contacto
 
 
 




  • Estado: Vigente
  • País:
  • España 
  • Fecha solicitud:
  • 25/07/2022 
  • Número solicitud:
  • P202200065 

  • Número publicación:
  • ES2959222 

  • Fecha de concesión:
  •  

  • Inventores:
  • Persona física 

  • Datos del titular:
  • DESARROLLO DE INTELIGENCIA ARTIFICIAL Y PSICOLOGIA S.L.
  • Datos del representante:
  • María Josefa VILLA JIMÉNEZ
     
  • Clasificación Internacional de Patentes:
  • G06N 5/045 
  • Clasificación Internacional de Patentes de la publicación:
  • G06N 5/045 
  • Fecha de vencimiento:
  •  
Quiero registrar una patente
registro
Reivindicaciones:
+ ES-2959222_A11. Sistema de evaluación a partir de patrones emocionales faciales y mediciones de la variación de datos fisiológicos basado en la interacción de metodologías de investigación propias de la inteligencia artificial y la Psicología, para la extracción de datos y procesamiento, uso de algoritmos y modelos de inteligencia artificial que realiza el análisis de las emociones del rostro de un sujeto evaluado ante su exposición a imágenes analizándolos con patrones emocionales de distintos perfiles almacenados en una base de datos propia validada científicamente del Sistema caracterizada por la emisión automática de un informe de asesoramiento que otorga información del sujeto evaluado con un determinado grado de confianza estadística sobre (i) el sistema de valores de referencia individuales de comprensión e interpretación de la realidad social del Sujeto; (i) Extremismo y Radicalismo en los Valores de referencia del Sujeto; (ii) nivel de falta de empatía del sujeto ante el dolor y sufrimiento ajeno (sadismo y alexitimia) , y que comprende: - Un dispositivo de captación de video e imágenes en alta resolución 4K. - Un dispositivo de captación de temperatura corporal. - Un dispositivo de captación del nivel de estrés fisiológico del sujeto (solo para evaluación individualizada, no en tránsito) . - Un dispositivo de emisión de video configurado para exponer/presentar un flujo de imágenes. - Un dispositivo periférico sujeto (sólo para evaluación individualizada, no en tránsito) para la recogida de datos. - Un grupo de unidades de procesamiento que incluye: • Emisor de flujo de video e imágenes de alto ancho de banda a los I servidores del Sistema que cuenta con un sistema de encriptación y anonimización. • Emisor de transformación de imágenes en datos numéricos expresivos de las emociones del sujeto mediante procesamiento basado en la IA ante cada imagen percibida por cada persona evaluada que cuenta con un sistema de encriptación y anonimización. • Emisor de flujo de video e imágenes de percepción de temperatura a los servidores del Sistema que cuenta con un sistema de encriptación y anonimización. • Emisor de flujo de niveles de estrés fisiológico de la persona evaluada a los servidores del Sistema que cuenta con un sistema de encriptación y anonimización. • Emisor de transformación de todos los datos recibidos en el Sisterna por parte de la IA y los algoritmos del Sistema en patrones y perfiles que cuenta con un sistema de encriptación y anonimización. • Dispositivo de análisis de patrones y perfiles individuales del sujeto evaluado mediante algoritmos de decisión del Sisterna con patrón/es almacenados en la base de datos del Sistema. • Dispositivo de emisor de respuesta a través de los algoritmos de informe/s de resultados que cuenta con un sistema de encriptación y anonimización. - Distintos algoritmos de inteligencia artificial (IA) . - Bases de datos propias de perfiles prototípicos, según modelos teóricos y prácticos, con patrones de respuestas emocionales de personas, validadas científicamente. 2. Sistema según Reivindicación 1 en donde los dispositivos de captación adquieren, reciben y procesan el flujo de información capturado sobre la medición y aparición de modificaciones de emperatura corporal, nivel de estrés, y emociones faciales ante la exposición de las imágenes a través del dispositivo de emisión de video al sujeto evaluado. 4. Sistema según Reivindicación 1 y 2 en el que el análisis de emociones tiene en cuenta la expresión facial y la mirada, los gestos y los microgestos indicadores de sonrisa, decepción, miedo, interés, tristeza, neutralidad, felicidad, ira, y la detección y procesamiento de otras variables como los grados de inclinación de las cejas, de las comisuras, la variación en la distancia (acercamiento o alejamiento) al objeto de evaluación, tiempo de reacción, evitación del objeto de evaluación, etc. 5. Sistema según Reivindicación 1 en el que en el que el análisis de emociones del sujeto evaluado, mediante Inteligencia Artificial, tiene en cuenta, para determinar la emoción experimentada por el sujeto, la variación o variaciones que experimenta la persona ante la exposición de las imágenes validadas científicamente del Sistema a través de los dispositivos de emisión de video caracterizado por: - La aplicación de algoritmos y modelos basados en Inteligencia Artificial (IA) tiene en cuenta la variación del conjunto de estructuras musculares que reciben su inervación motora del nervio facial: el músculo frontal, el músculo prócera o piramidal de la nariz, el músculo corrugado de la ceja o superciliar, el músculo 5 elevador del labio superior y del ala nasal, el músculo elevador del ángulo de la boca, el músculo cigomático mayor, el músculo cigomático menor, el músculo risorio, el músculo depresor del tabique nasal o mirtiforme, el músculo depresor del ángulo de la boca o triangular, el músculo mental o mentoniano y el músculo depresor del labio inferior. - El procesamiento mediante modelos de Inteligencia Artificial (IA) , entrenados empleando algoritmos de IA para el procesamiento de flujos de imágenes, del flujo de entrada de video para la extracción de los recuadros que contienen la imágenes faciales y térmicas provenientes de cada una de las personas capturadas y su identificación única para poder realizar un seguimiento individualizado de cada uno de los sujetos durante todo el tiempo que es capturado por el sistema de captación de imágenes. - El procesamiento mediante algoritmos de Inteligencia Artificial (IA) de las Imágenes captadas de la persona reaccionando a las imágenes presentadas al sujeto en evaluación a través del dispositivo de emisión de imagen/video para transformarlas en códigos numéricos interpretables para los algoritmos del Sistema. - El procesamiento de los códigos numéricos generados/calculados por los modelos y los algoritmos de IA en patrón o patrones y perfil o perfiles que puedan ser tratados para su análisis por parte de los algoritmos del Sistema. - El procesamiento del patrón o patrones, perfil o perfiles, de cada sujeto evaluado mediante análisis con los modelos almacenados en la bases de datos propia para que los algoritmos del Sistema establezcan los niveles de coincidencia entre el sujeto evaluado y los patrones o perfiles a detectar según un nivel de confianza estadística, con el objeto de clasificar, establecer y marcar como de interés aquellos sujetos que puedan ser requeridos por parte del usuario del Sistema como relevantes y así determinar su grado de coincidencia con un determinado nivel de confianza estadística con los distintos nivel de perfiles del Sistema. - Analizar el patrón o patrones de datos captados y procesados con los perfiles prototípicos predeterminados del Sistema basados en tecnología de aprendizaje automático o marching learning. El número de patrones prototípicos a ser usados en el Sistema puede variar en función de la necesidad del usuario. Así mismo, las características que definen dichos patrones pueden ariar con el tiempo (i.e., se pueden recalcular) , a medida que se retroalimente el Sistema con nuevos datos. - Los algoritmos de IA y los modelos aplicados por el Sistema podrán ser modificados por aprendizaje automático en la acumulación de datos y la modificación mediante actualizaciones del Sistema para mejorar los procesos de IA en el que se basan la toma de decisiones empleando estrategias/algoritmos de re-entrenamiento. - La creación de modelos de reconocimiento de patrones emocionales basados en modelos tanto teóricos -basados en la Psicología y la IA - como en modelos prácticos -basados en el análisis de datos y modelos matemáticos obtenidos mediante entrevistas y pruebas estandarizadas, procesados con metodologías propias del análisis masivo de datos y la psicometría. - La realización de un perfil individual del sujeto de acuerdo con un nivel de confianza estadística determinado. La confluencia de información y decisiones tomadas por los algoritmos del Sistema (y los modelos que lo representan) será procesada según las necesidades previamente marcadas por el usuario del Sistema, que determinará si el sujeto reúne las características o no y en qué grado. 5. Sistema según Reivindicación 4 en el que el perfil individual se muestra como una herramienta de ayuda con carácter de asesoramiento en la toma de decisiones ante la constatación de la presencia o no de un sujeto perteneciente a un grupo de interés para el usuario del Sistema y, en caso afirmativo, de acuerdo con un grado de confianza estadística su (i) Sistema de valores y creencias de referencia existencial del individuo; (ii) Presencia de valores y creencias compatibles o incompatibles con valores democráticos y de igualdad, entre otros; (iii) Falta de empatía ante el dolor y sufrimiento ajeno (sadismo y alexitimia) y si éste aparece de forma, especial ante determinados grupos sociales, religiosos o étnicos, en donde esta información se muestra en pantalla de forma gráfica, numérica y por escrito, mostrando los niveles de confianza estadística con cada grupo de referencia, el nivel aproximado de certeza del asesoramiento ofrecido por coincidencia con los patrones preestablecidos en el Sistema. 6. Sistema según Reivindicación 4 en donde el patrón o patrones de respuesta emocional del sujeto evaluado toma como un indicador objetivo no controlado de valores actitudinales, emocionales y cognitivos, no necesariamente conductuales o de intención, caracterizado por: - Los datos recibidos por los dispositivos externos y la toma de decisiones derivadas de todas las unidades de procesamiento del Sistema. - Las expresiones faciales detectadas, transformadas en códigos numéricos y posteriormente en patrones y perfiles. Esta información es empleada para el análisis de los algoritmos y modelos que generarán el perfil de la persona evaluada y el informe de asesoramiento con un grado de confianza estadística. - Seis modelos matemáticos de referencia predefinidos que modelan los datos provenientes de la detección y procesamiento de los estados emocionales del sujeto. 7. Sistema según Reivindicación 1 en el que las unidades de procesamiento están configuradas para procesar la información que reciben de los dispositivos de captura y establecer mediante modelos y algoritmos, niveles de análisis que conducen a la otorgación de pesos matemáticos probabilísticos acumulativos ante el visionado de cada imagen y su correspondiente reacción emocional, facilitando la toma de decisiones por parte de los algoritmos del Sistema. 8. Sistema según Reivindicación 1 en el que mediante el procesamiento de los datos recogidos por el Sistema se elabora automáticamente un informe del sujeto evaluado que indica el nivel de confianza estadística con los patrones previamente seleccionados por el usuario del Sistema como relevantes para ser objeto de estudio en la persona evaluada y el grado de fiabilidad en el que se basa el asesoramiento que realiza. 9. Sistema según Reivindicación 4 en el que los patrones de referencia del Sistema están basados en modelos matemáticos, resultado de datos objetivos, científicas y validados según metodología propias de la psicometría y el análisis masivo de datos, y que comprenden modelos de estados emocionales que se ajustan a respuestas prototípicas según los análisis matemáticos validados, que son referencia y coincidentes según distintos valores y creencias de referencia basados en los sistemas de creencias culturales monoteístas abrahámicas, su nivel de radicalismo y extremismo, con justificación de la violencia propia o de otros como recurso para la imposición del sistema de valores del sujeto y del grado de empatía o su ausencia ante el dolor ajeno animal o humano (sadismo y alexitimia) , especialmente si éste se da en grupos de pertenencia ajenos a aquel con el que el sujeto evaluado se identifica. 10. Sistema basado según las reivindicaciones 1 y 2 anteriores en el que el grupo de dispositivos incluye los siguientes elementos: - Un dispositivo de captación de vídeo e imágenes en alta resolución 4K. - Un dispositivo de captación de temperatura corporal. - Un dispositivo de captación del nivel de estrés fisiológico del sujeto (sólo para evaluación individualizada, no en tránsito) para la recogida de datos. - Un dispositivo periférico sujeto ( sólo para la evaluación individualizada, no en tránsito) para la recogida de datos. - Un dispositivo de emisión de video configurado para exponer/presentar un flujo de imágenes. 11. Sistema basado en la Reivindicación 10 en el que los dispositivos están configurados para recibir, recoger y proporcionar al Sistema datos indicativos de parámetros fisiológicos de una persona que muestren: - La variación del conjunto de estructuras musculares que reciben su inervación motora del nervio facial para detectar cualquier indicio de emoción o el intento de ocultación de la misma. En este proceso se involucra la medición o alteración por mínima que sea de los siguientes músculos: el músculo frontal, el músculo prócero o piramidal de la nariz, el músculo corrugador de la ceja o superciliar, el músculo elevador del labio superior y del ala nasal, el músculo elevador del ángulo de la boca, el músculo cigomático mayor, el músculo cigomático menor, el músculo risorio, el músculo depresor del tabique nasal o mirtiforme, el músculo depresor del ángulo de la boca o triangular, el músculo mental o mentoniano y el músculo depresor del labio inferior. - La variación de temperatura corporal, especialmente la facial. - La variación de niveles de estrés fisiológico. 12. Sistema según Reivindicación 10 anterior en el que el dispositivo propio de emisión de imágenes puede emitir imágenes en pantalla adaptada para el visionado del sujeto o sujetos en evaluación, en movimiento, sentado, quieto, de pie, en tránsito o espera. 13. Sistema basado según las reivindicaciones anteriores números del 1 al 4 que comprende los siguientes algoritmos de inteligencia artificial (IA) : - Algoritmo de detección de las creencias y valores de la persona evaluada según el sistema de creencias y valores propios de cualquiera de los sistemas culturales basados en las visiones monoteístas abrahámicas. - Algoritmo de determinación del nivel o grado de las creencias y valores de la persona evaluada según el sistema de creencias y valores propios de cualquiera de los sistemas culturales basados en las visiones monoteístas abrahámicas. - Algoritmo de detección de la presencia de radicalismo y extremismo en las creencias y valores de la persona evaluada según el sistema de creencias y valores propios de cualquiera de los sistemas culturales basados en las visiones monoteístas abrahámicas, de acuerdo a un grado de confianza estadística determinada y expresada en los resultados finales. - Algoritmo de detección de la presencia de la falta de empatía o de presencia de falta de emociones de la persona evaluada (sadismo y alexitimia) . - Algoritmo de detección del nivel de la presencia de la falta de empatía o de presencia de falta de emociones de la persona evaluada (sadismo y alexitimia) . 14. Sistema basado según reivindicación 1 que comprende la creación y transformación de datos recogidos en perfiles prototípicos según los modelos teóricos y prácticos como base de datos propias del Sistema validadas científicamente. 15. Sistema basado según las reivindicaciones anteriores en el que se emite automáticamente un informe del sujeto evaluado basado en los datos obtenidos por los sistemas externos, los modelos, los algoritmos y las unidades de procesamiento caracterizado por la: - Realización de un informe individual en tipología gráfico y escrito, con los resultados de la persona evaluada conforme a las especificaciones previas solicitadas por el usuario del Sistema. - Realización de informe individual explicativo con información numérica, gráfica, detallada, cuantitativa y cualitativa de las respuestas y patrones obtenidos. Informe basado en varios modelos de informe gráfico, numérico y escrito con los resultados de la persona evaluada conforme a las especificaciones previas solicitadas por el usuario del Sistema y en el que el informe detallado será accesible únicamente para un perfil de usuario del Sistema autorizado previamente.

Los productos y servicios protegidos por este registro son:
G06N 5/045

Descripciones:
+ ES-2959222_A1 Sistema de evaluación de patrones emocionales faciales basado en interacción de metodologías de investigación, extracción de datos, modelos teóricos propios e inteligencia artificial Sector de la técnica Esta invención se relaciona con sistemas de evaluación basados en el análisis de patrones emociones faciales de una persona ante determinados estímulos multimedia, para el asesoramiento profesional sobre el nivel de coincidencia del evaluado con diferentes configuraciones paramétricas predeterminados con valores de referencia baremados y validados, en cuanto a la interpretación cultural de referencia que determina en gran parte la comprensión de la realidad social de la persona, su nivel de extremismo y radicalismo en cuanto a dicha comprensión de la realidad social, y/o la presencia de falta de empatía ante el sufrimiento ajeno. Antecedentes de la invención Estado de la técnica El análisis psicométrico como medida válida para la creación de modelos teóricos psicológicos y su avance técnico gracias a la Inteligencia Artificial (IA) y al análisis masivo de datos La psicometría puede definirse como el conjunto de métodos, técnicas y teorías implicadas en Ia medición de las variables psicológicas (Muñiz, 2018) . Meneses (2013) resume que: la psicometría es una rama de la psicología que, mediante teorías, métodos y técnicas vinculados al desarrollo y la administración de tests, se ocupa de la medida indirecta de los fenómenos psicológicos con el objetivo de hacer descripciones, clasificaciones, diagnósticos, explicaciones o predicciones que permitan orientar una acción o tomar decisiones sobre el comportamiento de las personas en el ejercicio profesional de la psicología (p. 38) . González-Gallo (2018) afirma que es científicamente reconocido como práctica, es decir, sirve de apoyo a los objetivos de un trabajo de aplicación científica desarrollando las herramientas necesarias para alcanzar las metas científicas. Es decir, la psicometría trata de todo aquello que está relacionado con la medición psicológica y se diferencia de otras disciplinas psicológicas en que su especialización está en el análisis de las propiedades métricas que las mediciones tienen que poseer, independientemente del campo de aplicación y de los instrumentos usados. El objetivo de la psicometría es proporcionar modelos matemáticos que transformen los hechos en datos con la finalidad de asignar números a las respuestas dadas por los sujetos en una evaluación (Aragón Borja, 2015) . Los estudios psicométricos se basan en el supuesto de que las mediciones permiten obtener correlaciones que conllevan a la predicción de rasgos del comportamiento humano. Con los crecientes avances técnicos y tecnológicos, la psicometría ha interactuado en la elaboración de y diseño de perfiles de sujetos. Especialmente se incluyen el Big Data y el machine learning (Camilo-Gómez, 2021) . En este punto, cuando el número de datos a procesar para su análisis científico hace considerar a la base de datos como macrodatos, se hace necesario el desarrollo de herramientas estadísticas adecuadas y que conducen a la interacción de la psicometría con la Inteligencia Artificial (Cheung & Jak, 2019) . Los métodos estadísticos convencionales pueden no ser suficiente en la era de los macrodatos (Aiken et al., 2008) . El uso de métodos estadísticos convencionales conlleva la aparición de problemas cuando se habla de análisis masivo de datos. En primer lugar, porque los datos pueden ser demasiado grandes en número para los programas de trabajo estándar, como el SPSS o factor 8, por ejemplo. En segundo lugar, los datos pueden incluir diferentes tipos de información, como datos numéricos, texto, sonido y videos. Las técnicas multivariadas convencionales, como la regresión múltiple, pueden no ser óptimas para manejar tipos de variables tan diferentes. En tercer lugar, los tamaños de muestra grandes pueden conducir a resultados estadísticamente significativos en la mayoría de los análisis estadísticos, incluso cuando los tamaños del efecto asociados son prácticamente triviales. Si los investigadores utilizan la prueba de significancia como criterio, por ejemplo, para juzgar la relevancia de los predictores, se pueden sacar conclusiones engañosas. Es por ello que se hace necesaria la inclusión de metodologías propias de la Inteligencia Artificial para el análisis masivo de datos. EI enorme potencial que muestra la unión de la psicometría con el análisis masivo de datos no es nuevo, pero si se encuentra en sus inicios. Un claro y famoso ejemplo fue cuando el psicólogo de la Universidad de Stanford, Michal Kosinski, experto en la medición de rasgos psicológicos y Big Data, creó junto a David Stillwell una aplicación en Facebook llamada Mypersonality (Markovikj et al., 2021) . Como resumen Luis Batista (2022) sobre dicho estudio: Utilizando una media de 68 likes, Kosinski podía predecir el color de la piel (con un 95% de fiabilidad) , la orientación sexual (88%) o la afiliación al partido demócrata o republicano (85%) , y no sólo eso sino la afiliación religiosa, la inteligencia, el uso de alcohol, tabaco y drogas, etc. Incluso se puede deducir si los padres de la persona estaban divorciados. Kosinski podía evaluar a Ia persona mejor que sus amigos y familiares. Con 70 likes la conocía mejor que sus amigos, con 150 mejor que sus padres y con 300 mejor que su pareja. (para. 8) En conclusión, la creación de modelos teóricos de partida en sistemas donde estén implicados constructos psicológicos deben basarse tanto en teorías psicológicas científicas sustentadas en análisis psicométricos, dado que el objetivo final de toda ciencia es describir y aplicar y predecir los fenómenos que estudia, basándose en el análisis de datos que fundamenten dichas teorías. El desarrollo de la IA y de tecnologías relacionadas ha proporcionado métodos y herramientas de investigación innovadores que han favorecido a Ia investigación psicológica expandiendo sus posibilidades y capacidades de predicción y creación de modelos teóricos cognitivos y conductuales. Su aplicación, por otro lado, también ha promovido el progreso de la investigación de la lA al incrementar los campos donde puede ser aplicada. Esta interacción y confluencia de ambas ciencias y metodologías beneficia, aparece y sustenta el Sistema AIDOS (Artificial intelligence DetectObserve Secure) . Validez de la medición de emociones en la evaluación de las creencias y valores del sujeto Daniel Kahneman es un prestigioso psicólogo en el campo del juicio humano y la toma de decisiones bajo condiciones de incertidumbre. Sus investigaciones científicas desafían el supuesto de la racionalidad humana en la toma de decisiones. Afirma que la racionalidad es una ilusión y no representa el modo en el que las personas actuamos la mayor parte del tiempo, al contrario, lo racional una excepción. Para Kahneman (1973, 2011, 2021, 1999, 1982, 2000, 2002) xiste un sistema racional y lógico, de funcionamiento lento, y otro automático, de carácter emocional y rápido (Glarum & Adrianopoli, 2020; Tunstall & Beymer, 2011) . Sus estudios científicos avalarían el hecho de que las respuestas emocionales evaluadas de forma rápida son indicadores válidos y fiables del pensamiento del sujeto, vinculadas a sus valores y actitudes implícitas, es decir, a sus valores y creencias. Esta medición de parámetros emocionales sería pues un indicador más fiable del prisma emocional con el que el sujeto filtra la información proveniente de la realidad que la evaluación racional de la persona. Ésta tendría como característica principal el encontrarse procesada y bajo el control del propio sujeto, con intereses relacionados, por ejemplo, con la proyección de la propia imagen o el mantenimiento de la autoestima. Su validez, por lo tanto, como medición objetiva del pensamiento del sujeto puede, cuanto menos, ser cuestionada si no existen suficientes controles de las variables extrañas, como, por ejemplo, incluir escalas de sinceridad o de detección de la consistencia de respuesta. Como afirman Alshan'f et al. (2021) , las emociones son respuestas somáticas relativamente inconscientes que pueden ser medidas mediante técnicas de neuroimagen, tasa de respiración, sudoración, etc., pero también a través de la manifestación de las expresiones faciales. Es importante recordar que Ekman (2003) señaló que cada emoción tiene una función específica de adaptación al contexto, considerando como emociones básicas: el miedo, la ira, la tristeza, el asco, la alegría y la sorpresa (Ekman, 1999; Tracy & Randles, 2011) . Para Damasio (2003) la emoción es el conjunto de cambio de fisiológicos y cerebrales resultantes de las respuestas humanas basadas en sus percepciones. En conclusión, la percepción de la realidad se vincula directamente con las emociones sentidas por el sujeto, que se expresan de forma fundamental en al menos una de las siguientes emociones: miedo, ira, tristeza, asco, alegría y sorpresa. Las emociones del sujeto dependen directamente de su percepción de la realidad, o lo que es lo mismo, del filtro de valores y creencias que le sirven para interpretar la realidad que le rodea. Las emociones son evaluables, medibles de forma objetiva, y se consideran indicadores válidos de las creencias internas del sujeto, especialmente cuando se refieren a un procesamiento de la información rápido y no controlado. Validez de la información obtenida mediante conductas incontroladas frente a las basadas en autoinformes del sujeto evaluado Como afirman Petty & Wegener (1998) las actitudes son evaluaciones generales que las personas realizan sobre un continuo favorable-desfavorable respecto de los objetos y las personas de su entorno. Tradicionalmente, las actitudes se han medido en psicología mediante procedimientos de autoinforme, como las escalas de diferencial semántico y las escalas tipo Likert (Petty & Cacioppo, 1986) . Sin embargo, las limitaciones que presenta esta metodología de recogida de información son numerosas. Por ejemplo, la investigación demuestra que las personas difieren de forma significativa en cuanto al grado de consciencia que presentan sobre sus propias opiniones y estados internos. Además, cuando las personas tienen claras sus actitudes, puede suceder que no deseen revelarlas en público por presión social o no herir a los presentes o no quedar excluido del grupo. En ocasiones, si finalmente Io hacen, y detectan su inoportunidad, tratan de corregirlas sobre la marcha (Briñol & Becerra, 2001) . Frente a esta problemática, los avances tecnológicos posibilitan una medición de las actitudes reales del sujeto, o actitudes implícitas, sin que medie el control del sujeto. Así, Parra & Tamayo (2021) afirman que la investigación en cognición implícita ha se ha incrementado en los últimos años. Además, su uso se ha generalizado en procedimientos experimentales. Son las llamadas edidas implícitas. A diferencia de los cuestionarios de autoinforme, estas metodologías de investigación en la recogida de datos impiden que sesgos tan negativos para la validez de las conclusiones, como la deseabilidad social de las respuestas, terminen afectando a las respuestas de los participantes, lo que permite abordar a los investigadores temas sensibles. Existe una amplia literatura científica que avala, desde los estudios del sesgo de respuesta por parte de Edwards (1957) , hasta los estudios más actuales, como, por ejemplo, de Louzán-Mariño (2020) y Gómez-Benito et al. (2010) , pasando por los realizados por: de las Cuevas & González (1992) , que la existencia de sesgo y manipulación por parte del evaluado, debe ser tomada siempre en consideración cuando las pruebas están basadas en autoinforme. Es decir, cuando el sujeto conoce o intuye la intencionalidad de la evaluación que le realizan, cuando está basada en información facilitada por el propio evaluado (autoinforme) , y no en la evaluación de parámetros incontrolables por el sujeto, en los resultados finales obtenidos entran en juego factores que distorsionan los resultados y cuestionan su validez: la deseabilidad social, al intento de producir una imagen más positiva o más negativa de la real. Por esta razón los test y cuestionarios de última generación basados en medidas de autoinforme incluyen medidas de control sobre el sesgo. En conclusión, existe evidencia científica que avala la validez de la información obtenida de las personas evaluadas mediante conductas incontroladas, cuando se realiza de forma científica y controlada, frente a aquellas basadas en información facilitada por el propio sujeto (autoinforme) si no se realizan técnicas de control de la manipulación de la respuesta. Es por esto que el Sistema AIDOS se basa en la detección y medición de emociones y patrones de respuesta a la presencia de estímulos y considera dichos patrones como respuestas válidas de los valores y actitudes de simpatía y rechazo del sujeto evaluado hacia ciertos temas. Sistema de Codificación de Acción Facial (FACS) y descripción de las Unidades de Acción Ekman & Friesen (1978) detallaron los músculos faciales implicados y su descripción para la captación de microexpresiones implicadas en la percepción de emociones. Esta descripción y categorización es el conocido como Sistema de Codificación de Acción Facial (FACS) , que es considerado el mejor método para describir objetivamente Ia actividad facial humana que permite Ia identificación de emociones en el rostro. Esta herramienta permite describir la expresión facial, diferenciar los cambios en la acción muscular y distinguir, por tanto, las emociones (Ekman et al., 2002) . Ekman (1978, actualizado en 2020) identificó ocho expresiones faciales básicas: ira, desprecio, asco, miedo, felicidad, alegría, tristeza y sorpresa. Estas ocho expresiones faciales están codificadas dentro de Ia combinación de distintos movimientos independientes que implican distintos músculos faciales. El concepto de que las emociones están vinculadas discretamente con las expresiones faciales tiene sus raíces en el trabajo de Darwin (1872) y de aquellos que han refinado y elaborado posteriormente sus afirmaciones evolucionistas como, por ejemplo, Ekman (1992) . Para Darwin las expresiones faciales son las acciones residuales de respuestas conductuales más completas y ocurren en combinación con otras respuestas corporales: movimientos vocales, posturales, gestuales, del músculo esquelético y respuestas fisiológicas. Así, por ejemplo, expresamos la ira frunciendo el ceño y apretando los labios mostrando los dientes porque estas acciones son parte de una respuesta de ataque; expresamos disgusto con la boca abierta, arrugas en la nariz y protrusión de la lengua como parte de una respuesta de vómito. Las expresiones faciales son elementos de una respuesta coordinada que involucra múltiples sistemas de respuesta. La Tabla 1, traducción del trabajo de Ekman (2003) , recoge cuatro ejemplos de las descripciones básicas de cada emoción según Darwin y detalla una descripción básica de los músculos faciales involucrados. Tabla 1. Emoción y descripción de elementos involucrados en cada emoción (Ekman, 2003) . Ekman (2003) , va mucho más allá que Darwin en su análisis y afirma la existencia de Unidades de Acción. Las Unidades de Acción son todos los posibles movimientos faciales detectados visualmente. FACS permite codificar las unidades de acción en varias categorías de movimientos y posiciones de ojos y cabeza. Las Unidades de Acción pueden actuar solas o en combinación de varias de ellas en caso de expresión compleja (Ekman et al., 2002) . Además, el procedimiento de codificación FACS también brinda los medios para codificar la intensidad de cada acción facial. Tabla 2. Unidades de acción, descripción y musculo facial. Por ejemplo, afirma Doroszuk (2018) que según FACS, la ira pura se codifica como la suman de las unidades de acción 4+5+7+23. Esto significa que en esta acción intervienen las siguientes unidades: UA 4 - Brow Lowerer (base muscular: Depressor Glabellae; Depressor Supercilli; Corrugator) ; UA 5 - Elevador del párpado superior (base muscular: Levator Palpebrae Superioris) ; UA 7 - Tensor del párpado (Orbicularis Oculi, Pars Palebralis) ; UA 2.- Tensor de labios (Orbicularis Oris) . Otro ejemplo, usando ahora la tristeza, ésta quedaría definida como la aparición de las unidades de acción: 1+4+15. Es decir, UA 1 - Elevador de cejas interno (base muscular: Frontalis, Pars Medialis) ; UA 4 Depresor de cejas (Depresor Glabellae; Depresor Supercilli; Corrugador) ; UA 1.- Depresor de la comisura labial (Triangularis) . En conclusión, y como afirman Matsumoto & Ekman (2008) , este sistema (FACS) ha sido el que más ampliamente ha sido reconocido como válido por la comunidad científica y el sistema más completo y objetivo disponible en la actualidad en la detección y evaluación de emociones faciales en el rostro humano. interacción de FACS y la IA: validez de la detección de emociones por parte de la IA a partir de las unidades de acción y las microexpresiones Según Ekman (1995) , descubridor de las microexpresiones faciales, éstas son expresiones emocionales de la cara completa del individuo, que se comprimen en el tiempo y duran solo una fracción de su duración habitual, tan rápido que generalmente no se ven. Son movimientos de músculos faciales que expresan una emoción y duran una fracción de segundo, de forma que únicamente un observador altamente entrenado puede distinguir y clasificar la expresión aparecida (Craig, 2012) . Cada microexpresión es el resultado de una secuencia única de activación de los músculos faciales. Según la teoría de la inhibición, la mayoría de los movimientos de los músculos faciales son involuntarios, lo que hace imposible el control consciente (Darwin, 1872; Ekman, 2006) . Estos músculos se denominan señales de engaño ya que las personas son incapaces de inhibir su actividad para ocultar una expresión (Porter et aI., 2012) . La ventaja de evaluar icroexpresiones faciales en la detección de una emoción es que son involuntarias y automáticas (Arellano & Wladimir, 2018) . La aplicación de la Inteligencia Artificial en la evaluación de las emociones es una rama llamada inteligencia Emocional Artificial y evalúa el estado emocional en el que se encuentra una persona mediante el uso de algoritmos y modelos que identifican y procesan los microrrasgos de expresión facial para más tarde identificar la emoción o emociones presentes en el rostro evaluado. Todos los sistemas, modelos y algoritmos usan en mayor o menor medida para la explicitación de la emoción del sujeto el sistema de microexpresiones faciales de Ekman. Los actuales sistemas de IA son capaces de detectar la presencia de microexpresiones faciales y asignar la UA implicada. Para ello, en mayor o menor medida, según el algoritmo empleado, usan FACS para asignar finalmente una emoción a un sujeto. Esto se realiza a partir del análisis de las unidades de acción detectadas en el rostro evaluado e implicadas en Ia definición de cada emoción. Las unidades de acción, recordemos, son movimientos faciales que se atribuyen a la contracción de diferentes músculos (Girard et al, 2014) . Puede observarse en la tabla 2 la Unidad de Acción, su descripción y el músculo facial implicado. El análisis por parte de la IA, por lo tanto, tiene en cuenta Ia medición de las UA en la detección de las microexpresiones que correlacionan posteriormente con la emoción categorizada. Con estas unidades de acción se cubre todo el espectro de movimientos faciales concebibles para el ser humano. Más aún, los últimos hallazgos científicos relacionados con la detección de la mentira mediante microexpresiones faciales con inteligencia artificial, demuestran que la inteligencia artificial supera de forma significativa la capacidad de los humanos en porcentaje de aciertos, incluso cuando los humanos tienen más información para tomar una decisión al respecto (Monaro et al., 2022) . Además, mientras que el entrenamiento estándar para el FACS dura alrededor de un mes (Ekman & Rosenberg, 2005) para lograr la capacitación correcta de un evaluador, la lA ópera de forma automática e inmediata, libre de sesgos. En conclusión, la detección de emociones por parte de la lA se basa en un sistema objetivo de medida validado y científico. El FACS y su delimitación en UA posibilita tanto la detección como el posterior análisis de las microexpresiones faciales para designar una emoción a un sujeto ante un estímulo. Este sistema de análisis, detección y categorización es el empleado y en el que se basa el Sistema AlDOS. Implicaciones legales de la manifestación de actitudes mediante lenguaje no verbal Para Nieto-García (2019) el reconocimiento por parte del Tribunal Supremo de España de parámetros de convicción probatoria como el «lenguaje gestual», es un hecho clave que abre la posibilidad de incluir nuevos instrumentos de evaluación en las relaciones personales y sociales. Concretamente, respecto de las emociones, se abre la posibilidad de la evaluación de las microexpresiones faciales y el lenguaje no verbal. Valores sociales vinculados a las religiones abrahámicas: Judaísmo, Cristianismo e Islam Las religiones abrahámicas hacen referencia a las creencias monoteístas que tienen en común el papel fundamental de Abraham en sus orígenes. Comúnmente se identifican con el Judaísmo, Cristianismo e Islamismo, si bien puede entender de forma extensiva a los seguidores de Bahá'u'lláh, a samaritanos, mandeos y drusos (Derrida, 2001; Smith, 1998; Waardenburg, 1968) . En el Sistema AIDOS son consideradas para su evaluación únicamente aquellas más numerosas, es decir, Judaísmo, Cristianismo e Islam. El término de monoteísta hace referencia en que en último término las tres reconocen a un único Dios, si bien desde la fenomenología de las religiones el Cristianismo especialmente comparte rasgos con las religiones politeístas. Los factores comunes principales a las tres religiones son: la tradición profética, su origen semítico, poseer una base de revelación divina, la existencia de libro (s) sagrado (s) , una orientación ética que permite diferenciar el bien del mal, un concepto lineal de la historia que comienza con la creación por parte de Dios y la existencia de un juicio divino tras la muerte (Kritzeck, 1965) . En cuanto a las diferencias, según Colomer Ferrándiz (2004) , la principal o primer gran contraste reside en la manera de entender la revelación de Dios. Para el Islam la revelación está completamente encerrada en el Corán. Esto implica un sentido diferente al que tiene la Biblia para los cristianos o la Torah para los judíos. Para cristianos y judíos la Biblia y la Torah son palabra de Dios en lenguaje de hombres. El Corán, sin embargo, no es considerado un texto revelado, es más aún. Es un texto descendido sobre Mahoma, es la transcripción literal de un texto increado, que estaba siempre junto a Dios y ha descendido en la forma de un Corán histórico. Para Colomer Ferrándiz (2004) hay una semejanza entre el Cristo de los cristianos, Dios hecho hombre, y el Corán, el verbo de Dios fijado en papel. Estas semejanzas y diferencias conllevan implicaciones en creencias y valores que están intrínsecamente unidas en las sociedades y culturas que se desarrollan, en un grado de permeabilidad que varía según la religión y la cultura de referencia. La evaluación del radicalismo en las creencias y valores de las religiones abrahámicas La evaluación del riesgo de radicalización de un sujeto se ha basado tradicionalmente en la intuición y la experiencia personal e informal del evaluador (Schultz et al., 2021) . Ante este problema, se han desarrollado diversos métodos de evaluación que podemos agrupar en dos (Silke, 2014) . El primero se basa en la recogida, el seguimiento y el análisis de la información. El segundo se basa en el uso de herramientas específicas. El primer método se asocia al Juicio Profesional Estructurado (SPJ) . Este enfoque proporciona orientación a los profesionales para estructurar sus juicios sobre el riesgo de radicalización de la persona y generar posteriormente una evaluación holística que integre información de diferentes fuentes (Lloyd, 2019) con el objetivo de ser fiable y válida. Este tipo de instrumentos suelen integrar información obtenida a través de entrevistas, pruebas especializadas e información de terceros. Entre los SPJ más conocidos encontramos: Violent Extremism Risk Assessment (VERA) 20 (Pressman, 2009, 2014; Pressman & Flockton, 2012) o Extremism Risk Guidelines 22+ (ER622+) (Lloyd, 2016; Lloyd & Dean, 2015) . El segundo método es más usado en el ámbito académico y son las encuestas de auto-informe. Su principal utilidad se encuentra en Ia obtención de datos primarios proporcionados por los individuos objetivo. Estos datos permiten contrastar la relación de distintos factores con la radicalización, así como usarse dentro de diseños experimentales que aporten evidencias respecto a la causalidad (Braddock, 2020) . Entre las herramientas de auto-informe que existen en la literatura, encontramos el Questionnaire on the Risk of Islamic Radicalisation in Young People (Moyano, 2011) , desarrollado para evaluar a jóvenes, en ocasiones, localizados en zonas marginales (Lobato et al., 2021; Moyano & Trujillo, 2014) . Por su parte, la Support for Political Violence Scale y la Self-Sacrifice Scale han sido desarrolladas por Bélanger et al. (2014, 2019) . También encontramos la escala de Willingness to Fight and Die for the Group, desarrollada por Swann et al. (2009) , y usada principalmente dentro del modelo de los actores devotos (Gómez et al., 2017) y de la teoría de Ia fusión de la identidad (Swann et aI., 2012) . Asimismo, Ozer y Bertelsen (2018) desarrollaron la Extremism Scale (ES) y la Pro-violence and iilegal Acts in Relation to Extremism Scale (PIARES) , destinadas a evaluar diferentes aspectos de la radicalización violenta. Finalmente, una de las más usadas son las Activism and Radicalism intention Scales (ARiS) , desarrolladas por Moskalenko & McCauIey (2009) para evaluar el activismo (intención de usar medios legales y no violentos) y el radicalismo (intención de usar medios ilegales y violentos) . Estos métodos de evaluación del radicalismo en las creencias y valores vinculados a las religiones abrahámicas presentan el problema ya mencionado anteriormente de los sesgos de medida vinculados a las medidas de autoinforme. Frente a este problema, la inclusión de medidas mediante lA de respuestas de unidades de acción para la detección de microexpresiones para la categorización de emociones y su posterior tratamiento mediante modelos evita la posible subjetividad interjueces del FACS, acelera la toma de decisiones relacionadas con el asesoramiento. En conclusión, existen actualmente formas objetivas de evaluar el riesgo de radicalización y extremismo en las creencias de un sujeto y detectar cuándo estos valores están en contra de los valores de igualdad, democracia y grado de justificación de la violencia para la imposición de las propias ideas. Sin embargo, estas formas de medida son costosas en tiempo y recursos. Especialmente encuentran el problema de que el sujeto radicalizado no desea ser detectado y, por lo tanto, miente. Se hace necesario la combinación de distintas fuentes de información. Frente a este elevado coste, el sistema AIDOS puede ser un elemento más de información de contraste, con Ia ventaja de que las respuestas del sujeto son involuntarias y la medición de sus actitudes tienen una base objetiva y científicamente contrastada. Qué es la empatia, las Implicaciones de la falta empatia y su evaluación Stotland (1969) fue un pionero en cuanto a la conceptualización de la empatía como constructo psicológico referido a un plano emocional y no cognitivo. El autor la definió como aquella respuesta afectiva de un ente que observa, percibiendo lo que otro individuo experimenta o va a vivenciar (Fenández-Pinto et al., 2008) . Según Ramos-Rodríguez (2019) , quien realizó en su estudio una tabla evolutiva de las conceptualizaciones del constructo, este constructo incluso ha variado en su comprensión teórica en los últimos 30 años: Fuente: Ramos-Rodríguez (2019) Como afirman Olivera et al. (2011) , llama la atención que, siendo concepto muy utilizado, no todos los psicólogos/as se refieren a lo mismo cuando la mencionan, y no existe aún una definición conceptual consensuada. Diferentes autores presentan distintas definiciones. Esta variedad es una dificultad a la hora investigar y delimitar los componentes que tienen que formar parte de la evaluación de este constructo. Muchas de las definiciones de empatía se derivan del marco teórico terapéutico en el que se basan (Carlozzi et a|., 2002) . Sin embargo, parece que todas las definiciones suelen coincidir en conceptualizarla como la capacidad de un sujeto para entender las emociones del otro y ponerse en su lugar, siendo capaz en cierta medida de hacer suyo el dolor ajeno ola alegría de otra persona. Con relación a los instrumentos de medida de la empatía, la revisión realizada por Olivera et al. (2011) les permite concluir que: • Existen numerosos instrumentos para evaluar la empatía. • A pesar de la variedad todos presentan algún tipo de carencia. • La mayoría de las escalas mencionadas en su revisión son de autoinforme, cuyos sesgos ya fueron detallados anteriormente. • La mayoría de la investigación sobre psicoterapia y empatía se centra en el rol del terapeuta. En la actualidad, los niveles bajos de empatía están vinculados con la aparición y manifestación de conductas asociales, al incumplimiento de las reglas sociales, a una deficiente capacidad de entender lo que otros pasan, como una incapacidad para entablar vínculos amicales, inclusive, llegando a tener rendimiento académico por debajo de lo esperado. La falta de empatía no debe de confundirse con la psicopatía ni con el trastorno antisocial de la personalidad. Al psicópata, egún Millón & Davis, (2001) le falta la posibilidad de experimentar emociones, carece de ellas, aunque, en apariencia, se exprese de un modo normal, pero realmente presenta afasia semántica en este campo, es decir, los psicópatas son incapaces de entender y expresar el significado de las experiencias emocionales, aunque puedan comprender el lenguaje empleado. Según Garrido (2004) un atributo esencial del psicópata es Ia alteración afectiva en el ámbito interpersonal. Este trastorno de la afectividad tiene relación con un elevado ego, muestras de insensibilidad, mentiras a nivel patológico, falta de empatía y ausencia de remordimientos y elevada satisfacción ante la manipulación de personas. Existe un alto deseo de dominio y una baja ansiedad y culpa ante dicha necesidad. En conclusión, la falta de empatía es un rasgo presente en la psicopatía, pero la ausencia de esta no determina por si sola, incluso en un alto grado, la posibilidad de diagnosticar, sin otros criterios diagnósticos, la presencia de esta psicopatología. De hecho, la falta de empatía es común a otros diagnósticos y no determina la presencia de una conducta asocial o la falta de integración del sujeto en su medio social. Además, los instrumentos de evaluación de falta de empatía presentan el problema de ser en su mayoría autoinformes. Frente a estas carencias, el Sistema AlDOS intenta detectar la presencia de patrones emocionales propios de personas con baja o nula empatía, ante Ia detección y análisis de UA y microexpresiones faciales relacionadas con la ausencia de capacidad del sujeto de sentir como propio el dolor ajeno, especialmente cuando se tratan de grupos sociales o con referencias culturales a las propias. Reconocimiento masivo de emociones automático en flujos de vídeo capturado sobre un grupo de personas Por Io general, los seres humanos son capaces de realizar de forma natural Ia tarea de reconocer las emociones de otras personas, por ejemplo, interpretando las expresiones faciales. Encontrar mecanismos computacionales que reconozcan de forma automática las emociones humanas de la misma forma o similar es un reto no trivial en el que se ha avanzado de forma meteórica durante los últimos años (Maithri et a|., 2022) . La principal motivación para el diseño y desarrollo de soluciones algorítmicas capaces de interpretar las emociones abre un nuevo abanico de posibilidades extraordinarias en el contexto de Ia interacción persona-máquina, pudiéndose aplicar a la robótica, el marketing digital, la selección de personal, los sistemas de enseñanza inteligentes, la seguridad, entre muchos otros (Canal et al., 2022) . Así mismo, cuanto antes se estandaricen este tipo de soluciones algorítmicas, mejor podremos ayudar a entender las áreas naturales de la psicología, Ia neurociencia, la cognición humana y el aprendizaje (Abdullah & Abdulazeez, 2021; Canal et al., 2022; Khattak et al., 2022) . En el estado del arte se pueden encontrar trabajos en ios que se han diseñado soluciones de reconocimiento de estas emociones y su clasificación mediante diversas estrategias basadas en la electroencefalografía, el análisis de señales fisiológicas (como la frecuencia cardíaca y la conductancia de la piel) , la interpretación visual de gestos y expresiones faciales, el patrón del habla, etc. (Maithri et a|., 2022) . De entre todas estas soluciones, las que tienden a generalizarse son aquellas que se fundamentan en la interpretación de la expresión de las emociones faciales a partir de imágenes de rostros humanos. Esto se debe principalmente a dos razones: a) los avances en visión artificial (VA) han permitido la creación de soluciones de interpretación de emociones muy precisas y b) este tipo de técnicas no requieren de la instalación de un dispositivo intrusivo en las personas (simplemente se requiere de una cámara con la suficiente resolución para poder adquirir las imágenes faciales) . Así, la VA consiste en que una computadora realice tareas similares a la visión humana (o natural) . Estas tareas principalmente se centran en la obtención de información numérica y simbólica a partir de imágenes estáticas o flujos de estas (vídeos) (Szeliski, 2010) . En esta área e conocimiento se aúnan conceptos de la física del color, óptica, electrónica, geometría, algorítmica, sistemas de computación, etc. En la actualidad, el área de conocimiento que mayor aporte está ofreciendo a la VA es aquella relacionada con la Inteligencia Artificial (IA) , más específicamente en los métodos y algoritmos de aprendizaje profundo (deep learning, DL) aplicados al entrenamiento de redes neuronales artificiales (RNA) (OMahony et. al, 2019) . Para el reconocimiento de las emociones en un flujo de vídeo continuo, se aplican métodos de VA diferentes para realizar las tareas que se llevan a cabo de forma continuada (Forsyth & Ponce, 2011; Hassaballah & Awad, 2020; Szeliski, 2010) : a) la localización y detección de todos los rostros que contiene la imagen del flujo de video que se está analizando en un instante determinado, para así extraerlas; b) el seguimiento de cada una de las caras en el flujo del video, para mantener la relación espaciotemporal que tiene el rostro a lo largo del flujo; y c) la identificación o clasificación de la emoción del rostro que se ha detectado. Existen multitud de propuestas de aprendizaje profundo empleando RNA aplicadas a VA, entre las cuales destacan las variantes de las redes neuronales convolucionales (CNN) , las redes de creencia profunda (DBN) y las máquinas profundas de Boltzano (DBM) (Hassaballah & Awad, 2020; Voulodimos et al., 2018) . En la actualidad, las redes CNN constituyen el estado del arte para muchas de las tareas de VA. Estas RNA profundas modelan el córtex visual del ojo humano para identificar distintas características en la imagen. Así, son capaces de extraer y aprender patrones espaciales (Albawi et al., 2017) . Pese a ser la última de las tareas a realizar por el sistema de reconocimiento de las emociones, se introducen los métodos de identificación y clasificación puesto que representan la principal motivación para la existencia de soluciones algorítmicas para realizar VA. Las RNA del estado del arte aplicadas en identificación y clasificación están su mayoría basadas en arquitecturas CNN (Albawi et al., 2017) . La mejora continua de estos métodos se sustenta en la disponibilidad de plataformas de cómputo de altas prestaciones y del uso de un conjunto de datos de entrenamiento 35 millones de imágenes etiquetadas. Esto ha permitido el entrenamiento de variantes de CNN cada vez más complejas que han ido mejorando los resultados de precisión y exactitud. ImageNet propuesta por Russakovsky et al. (2015) , supuso un salto cualitativo de estos métodos, esta red se entrenó empleando 1.281.167 imágenes organizadas en 1.000 categorías. Así mismo, también han ido apareciendo otras 5 mejoras de las arquitecturas CNN como IncepcíonV3, Restnet, VGG y GoogLeNet (Szegedy et al., 2015) . Así mismo, se han mejorado los algoritmos de entrenamiento para poder ofrecer soluciones de VA basadas en arquitecturas CNN menos complejas, es decir, que requieren de menos recursos computacionales para su entrenamiento y su uso. Entre esas redes destaca EficientNet (Tan & Le, 2019) , una 10 CNN ligera y precisa. La localización y detección de los rostros en una imagen consiste en establecer la ubicación de una o varias caras (si existen) y establecer sus límites a través de un área rectangular. Las soluciones algorítmicas empleadas y las arquitecturas de las RNA para la tarea de seguimiento de objetos han sido heredadas de las mismas utilizadas en la VA para la clasificación. La forma de que estos modelos de VA actúa consiste en dividir la imagen en áreas solapadas y de distinto tamaño y de forma iterativa recorren dichas áreas para clasificarlas (Szegedy et al., 2013) . En la actualidad, el estado del arte en detección lo marca YOLO (Redmon et al., 2016) y sus variantes. YOLO se construye sobre una CNN que permite realizar la detección de objetos en una sola única iteración, por lo que reduce de forma notable los tiempos de cómputo, siendo ideal para su aplicación sobre flujos de video que requieren del tratamiento en tiempo real (Benjdira et a|., 2019; Kim et al., 2020) . El seguimiento de objetos en un vídeo, en este caso sería el seguimiento de las caras detectadas, consiste en analizar flujos de imágenes con de seguir objetos (caras) que han sido detectadas e identificadas. Globalmente se distinguen dos niveles de seguimiento de objetos: seguimiento de un único objeto (SOT) y seguimiento de múltiples objetos (MOT) (Ciaparrone et al., 2020) . Dada la naturaleza del sistema que se propone nos centramos en el MOT. Los algoritmos de MOT asignan a cada uno de los objetos detectados en un fotograma un identificador único que se emplea para distinguirlo de los objetos de la misma clase. MOT se pueden dividir en procesado por lotes (offline) o dinámico (online) . Deep SORT representa el estado del arte actual y es uno de los métodos de seguimiento más empleados (Wojke et al., 2017) . Actualmente, muchos de los sistemas de VA que requieren de detección y seguimiento se implementan usando conjuntamente YOLO y Deep 35 SORT. Centrándonos en las soluciones de lA especificas para el reconocimiento automático de emociones, Mellouk & Handouzi (2020) realizaron un estudio comparativo utilizando técnicas basadas en el aprendizaje profundo que empleaban diferentes variantes de CNN sobre diferentes conjuntos de imágenes de rostros humanos. Una variante algorítmica sobre esta misma arquitectura de red neuronal artificial (es decir, un nuevo modelo sobre CNN) que detectaba siete emociones diferentes fue propuesta por Verma et al. (2019) . El análisis experimental mostró que este nuevo modelo de CNN obtenía una precisión de un 86, 78%. Posteriormente, han ido apareciendo soluciones multimodelo que combinan el uso de CNN, que encapsulan muy bien Ia relación espacial de los datos de una imagen, con redes neuronales artificiales recurrentes (RNN) , que son capaces de aprender la relación temporal que puede haber entre los píxeles de las imágenes sucesivas en los flujos de video. En este sentido, Liu et al. (2019) propusieron un método de ponderación media para reducir los errores en la detección de emociones faciales en tiempo real. Los resultados mostraron que el modelo propuesto es mejor que el enfoque tradicional de CNN. De forma similar. Zhong et al. (2019) propusieron una red neuronal artificial recurrente bidireccional (BRNN) para la detección de emociones faciales utilizando una representación con estructura de grafos. El modelo propuesto alcanzó una precisión de reconocimiento de entre un 93, 06% y un 98, 27% para distintos conjuntos de imágenes. Ozdemir et al. (2019) presentaron otro modelo basado en CNN, la LeNet, que reconoce siete emociones faciales diferentes aplicando un entrenamiento sobre tres conjuntos de imágenes diferentes. Este enfoque alcanzó una buena precisión del 96, 43%. Otra CNN propuesta por Pathar et al. (2019) para reconocer siete emociones humanas alcanzó una precisión del 89, 98%. López- Rincon (2019) empleó un modelo basado en este tipo de arquitectura para reconocer seis emociones faciales básicas de niños utilizando el robot NAO. Estos trabajos representan el estado del arte actual. Se pueden encontrar en literatura más estudios, sin embargo, casi la totalidad de ellos siguen estrategias similares a las soluciones que se han introducido aquí (Abdullah & Abdulazeez, 2021; Canal et al., 2022; Dresvyanskiy et al., 2022; Khattak et a|., 2022; Maithri et al., 2022) . Sobre el uso de la fotopletismografía remota en el Sistema AIDOS La fotopletismografía remota o rPPG es una técnica por la que se puede conocer el volumen de un cuerpo estableciendo la luz que refleja y gracias a esa variación volumétrica podemos obtener mediciones de parámetros fisiológicos como la frecuencia cardíaca y el ritmo respiratorio. La reflexión difusa es la reflexión en la piel que queda de la absorción y dispersión de la luz en el tejido, que varía según los cambios en el volumen de sangre. La reflexión especular se refiere en este caso a la reflexión directa provocada por la piel. La fotoplestimografía es una vertiente de la plestimografía que es la técnica de medición de cambios de volumen en las diferentes partes del cuerpo. Con esta técnica podemos medir la variación periódica del volumen sanguíneo que se propaga por el sistema cardiovascular provocado por el pulso, así como el volumen de aire que pueden contener los pulmones. La antidad de sangre que circula por el sistema cardiovascular oscila en función de los latidos de nuestro corazón y es posible conocer nuestra frecuencia cardiaca con este procedimiento. Se ha visto que una de las limitaciones de este sistema está relacionado con el ruido que generan las deformaciones faciales provocadas por las expresiones faciales, señales temporales, dependientes de la región facial de muestreo. Birla Lokendra y Gupta Puneet en su estudio "AND-rPPG: A novel denoising-rPPG network for improving remote heart rate estimation", con fecha febrero de 2022, es la publicación más reciente para demostrar la viabilidad de este sistema fuera de las condiciones de laboratorio, utilizando unidades de acción para eliminar el ruido de las señales temporales de una manera efectiva. La iluminación cobra una importancia relevante en este sistema para la lectura de la región facial de interés (ROI) . Juan Cheng, Xun Chen, Lingxi Xu, Z. Jane Wang (2016) , proponen en su estudio "Illumination Variation-Resistant Video-Based Heart Rate Measurement Using Joint Blind Source Separation and Ensemble Empirical Mode Decomposition", tomando como base que la variación de iluminación que sufre el ROI facial y el ROI de fondo son similares, considerando el ROI de fondo como la base para poder eliminar el ruido provocado por las expresiones faciales temporales y funcionando como un sensor de referencia de ruido permitiéndonos de esta forma extraer la fuente de variación de iluminación subyacente. El enfoque para la detección remota de la rPPG es el siguiente: • Se detecta al sujeto y se modela la información para determinar los puntos de referencia faciales y la orientación de la cabeza, se selecciona como región de interés aproximadamente los dos tercios superiores de la cara, debido a la mayor concentración de vasos sanguíneos. • Se extrae la señal y el promedio de los colores rojo, verde y azul de la región de interés y se mide su variación en el tiempo de los reflejos especulares y los reflejos difusos de la piel. • Se filtra la señal para eliminar el ruido provocado por el movimiento de la cabeza y las señales temporales y se obtiene la frecuencia cardiaca sin ruido, d) Se calcula la frecuencia cardiaca y su variabilidad a través de los picos detectados provocados por latidos del corazón. Actualmente existen diferentes bases de datos públicas como, por ejemplo, COHFACE dataset (2017) , que recoge un gran número de sujetos grabados bajo diferentes condiciones de iluminación y con señales fisiológicas extraídas que nos permiten comprobar la fiabilidad de este sistema. Referencias Abdullah, S. M. S., & Abdulazeez, A. M. (2021) . Facial expression recognition based on deep learning convolution neural network: A review. Journal of Soft Computing and Data Mining, 2 (1) , 53-65. Aiken, L. S., West, S. G., & Millsap. R. E. (2008) . Doctoral training in statistics, measurement, and methodology in psychology: replication and extension of Aiken, West, Sechrest, and Reno's (1990) survey of PhD programs in North America. American Psychologist, 63 (1) , 32-50. doi: 10.1037/0003-066X.63.1.32. Albawi, S., Mohammed, T.A., & Al-Zawi, S. (2017) . Understanding of a convolutional neural network. Intemational Conference on Engineering and Technology (ICET) . https://doi.org.10.1109/ICEng Technol.2017.8308186 Alsharif, A. H., Salleh, N. Z. M., & Baharun, R. (2021) . The Neural Correlates of Emotion in Decision-making. International Journal of Academic Research in Business and Social Sciences, 11 (7) , 64-77. Aragón Borja, L.E. (20215) . Evaluación psicológica: historia fundamentos teórico- conceptuales y psicometria. Moderno S.A. Batista, L. (n.d) . Psicometria y Big Data Cuánto crees que valen tus datos? https://luisbatista.es/blog/psicometria-y-big-data.html Bélanger, J. J., Caouette, J., Sharvit, K., & Dugas, M. (2014) . The psychology of martyrdom: Making the ultimate sacrifice in the name of a cause. Journal of Personality & Social Psychology, 107 (3) . 494-515. https://doi.org/10.1037/a0036855494-515. Bélanger, J. J., Moyano, M., Muhammad, H., Richardson, L., Lafreniére, M. A. K., McCaffer y , P., Framand, K., & Nociti, N. (2019) . Radicalization leading to violence: A test of the 3N model. Frontiers in Psychiatr y , 10, 42 https://doi.org/10.3389/fpsyt.2019.00042 Benjdira, B., Khursheed, T., Koubaa, A., Ammar, A., & Ouni, K. (2019) . Car Detection using Unmanned Aerial Vehicles: Comparison between Faster R-CNN and YOLOV3. The 1st Unmanned Vehicle Systems conference in Oman. https://doi.org/10.48550/arXiv. 1812.10968 Braddock, K. (2020) . Experimentation & quasi-experimentation in countering violent extremism: Direction of future inquir y . United States Institute of Peace. https://www.resolvenet.org/research/experimentation-quasi-experimentation-countering-violentextremism-directions-future Briñol, P., Horcajo, J., Becerra, A., & Falces, C. (2003) . Implicit cognitive equilibrium. Psicothema, 15 (3) , 375-380. Camilo Gómez, J. (2021) . Psicometria, perfiles y sesgos. El caso del reconocimiento facial. InMediaciones de la Comunicación, 16 (2) . https://doi.org/10.18861/ic.2021.16.2.3156 Canal, F. Z., Müller, T. R., Matias, J. C., Scotton, G. G., de Sa Junior, A. R.. Pozzebon, E., & Sobieranski, A. C. (2022) . A survey on facial emotion recognition techniques: A state-of-the-art literature review. Information Sciences, 582, 593- 617. Carlozzi, A. F., Bull, K. S., Stein, L. B., Ray, K., & Barnes, L. (2002) . Empathy theor y and practice: a survey of psychologists and counselors. The Journal of Psychology, 136 (2) , 161-170. https://doi.org/10.1080/00223980209604147 Cheung, M.W.L., & Jak, S. (2019) . Desafios de los análisis y aplicaciones de Big Data en psicología. Zeitschrift für Psychologie, 226 (4) . https://doi.org/10.1027/2151-2604/a000348 Ciaparrone, G., Luque Sánchez, F., Tabik, S., Troiano, L., Tagliaferri, R., & Herrera, F. (2020) . Deep learning in video multi-object tracking: A survey. Neurocomputing, 381, 61-88. https://doi.org/10.1016/¡.neucom.2019.11.023 Colomer Ferrandiz, F. (2004) . Fe Cristiana y fe islámica contenido, relaciones y diferencias. Un intento de comparación. Scripta Fulgentina, 14 (27-28) , 7-20. Craig, D. (2012) . Sé que mientes: Todo lo que necesitas para descubrir a un mentiroso. México: Penguin Random House Group Editorial. Cuevas Catresana, C., & Gonzales Rivera Revuelta, L. (1992) . Autoinformes y respuestas sesgadas. Anales de Psiquiatría, 8 (9) , 362-366 Damasio, A. (2006) . Feelings of Emotion and the Self. Annals of the New York Academy of Sciences, 1001 (1) , 253-261. Darwin, C. (1872) . The expression of the emotions in man and animals. The journal of the anthropological institute of Great Britain and Ireland. https://doi.org.10.2307/2841467 Derrida, J. (2001) . Acts of Religion. (1st ed.) . Routledge. https://doi.org/10.4324/9780203724309 Doroszuk, M. (2018) . Facial action coding system (FACS) . Practical application. Revista de Expresión y Comunicación Emocional, 2, 93-103. Dresvyanskiy, D.; Ryumina, E.; Kaya, H.; Markitantov, M.; Karpov, A.; Minker, W. (2022) End-to-End Modeling and Transfer Learning for Audiovisual Emotion Recognition in-the-Wild. Multimodal Technology Interaction, 6, 11. https://doi.org/10.3390/mti6020011 Edwards, A. L. (1957) . Techniques of attitude scale construction. Appleton-C6ntur y - Crofts. Ekman, P. (1992) . An argument for basic emotions. Cognition and Emotion, 6 (3-4) . 169-200. https://doi.org/10.1080/02699939208411068 Ekman, P. (1995) . Como detectar mentiras. Altaya. Ekman, P. (1999) . Basic Emotions. Handbook of Cognition and Emotion. Book Editor (s) : J Tim Dalgleish, Mick Power. PP 45-60. https://doi.org/10.1002/0470013494.ch3 Ekman, P. (2006) . Darwin, deception, and facial expression. Annals of the New York Academy of Sciences, 1000 (1) , 205-221. https://doi.org.10.1196/annals. 1280.010 Ekman, P., & Friesen, W. V. (1978) . Facial action coding system: Investigator's guide. Palo Alto, Calif.: Consulting Psychologists Press. Ekman, P., & Friesen, W.V. (2003) Unmasking the Face: A Guide to Recognizing Emotions from Facial. Malor Books. Ekman, P., & Rosenberg, E.L. (2005) . What the face reveals: Basic and applied studies of spontaneous expression using the facial action coding system (FACS) . Oxford University Press. https://doi. org/10.1093/acprof: oso/9780195179644.001.0001 Ekman, P., Friesen, W. V., & Hager, J. C. (2002) . Facial Action Coding System. Manual and Investigator's Guide. Salt Lake City, UT: Research Nexus. Fernández-Pinto, I., López-Pérez, B., & Márquez, M. (2008) . empatía: medidas, teorías y aplicaciones en revisión. Anales de psicología / Annals of Psychology. 24 (2) , 284-298. Forsyth, D., & Ponce, J. (2011) Computer Vision: A Modern Approach. (Second edition) . Prentice Hall. Garrido, V. (2004) . Tratamiento del agresor psicopático. En Sanmartín Espulges, J. (Eds.) , El Laberinto de la Violencia: Causas, Tipos y Efectos (pp. 321-330) . Barcelona: Ariel. Glarum, J., & Adrianopoli, C. (2020) . Decision Making in Emergency Management. Butterworth-Heinemann. https://doi.org/10.1016/C2017-0-03809-0 Gómez-Benito, J., Hidalgo, M.D., & Guilera, G. (2010) . El sesgo de los instrumentos de medición. Tests justos. Papeles de Psicólogo, 3 (1) , 75-84. Gómez, Á., López-Rodríguez, L., Sheikh, H., Ginges, J., Wilson, L., Waziri, H., Vázquez, A., Davis, R., & Atran, S. (2017) . The devoted actor's will to fight and the spiritual dimension of human conflict. Nature Human Behaviour, 1 (9) , 673- 679. https://doi.org/10.1038/s41562-017-0193-3 Gonzzález Gallo, I. (2018) . Aportes de la psicometria al ejercicio profesional e investigativo en ciencias de la salud. MedUNAB, 21 (2) , 5-7. Hassaballah, M., & Awad, A.I. (2020) . Deep Learning in Computer Vision: Principles and Applications (1st ed.) . CRC Press.https://doi.org/10.1201/9781351003827 Kahneman, D. (1973) . Attention and Effort. Prentice-Hall Inc. Kahneman, D. (2011) . Thinking, fast and slow. New York: Farrar, Straus and Giroux. Kahneman, D. (2021) . Noise: A flaw in human judgment. New York: Little, Brown Spark. Kahneman, D. Diener, E., & Schwarz, N. (1999) . Well-Being: The Foundations of Hedonic Psychology. Russell Sage Foundation. Kahneman, D. Slovic, P., & Tversky, A. (1982) . Judgment Under Uncertainty: Heuristics and Biases. Cambridge University Press. Kahneman, D., & Tversky, A. (2000) . Choices, Values and Frames. Cambridge University Press. Kahneman, D., Gilovich, T., & Griffin, D. (2002) . Heuristics and Biases: The Psychology of Intuitive Judgment. New Publisher. Khattak, A., Asghar, M. Z., Ali, M., & Batool, U. (2022) . An efficient deep learning technique for facial emotion recognition. Multimedia Tools and Applications, 81 (2) , 1649-1683. Kim, J., Sung, J.Y., & Park, S. (2020) . Comparison of Faster-RCNN, YOLO, and SSD for Real-Time Vehicle Type Recognition. IEEE Internationa! Conference on Consumer Electronics (ICCE-Asia) . https://doi.org/10.1109/ICCE- Asia49877.2020.9277040 Kritzeck, J. (1965) . Sons of Abraham: Jews, Christians, and Moslems, Helicon Press. Liu. K.C., Hsu, C.C., Wang, W.Y., & Chiang, H.H. (2019) . Real-Time facial expression recognition based on CNN. Internationa! Conference System Science and Engineering (ICSSE) . https://doi.org/10.1109/ICSSE.2019.8823409 Lloyd, M. (2016) . Structured guidelines for assessing risk in extremist offenders. Assessment and Development Matters, 8 (2) , 15-18. Lloyd, M. (2019) . Extremist risk assessment: A director y . Centre for Research and Evidence on Security Threats (CREST) . https://crestresearch.ac.uk/resources/extremism-risk-assessmentdirector y Lloyd, M., & Dean, C. (2015) . The development of structured guidelines for assessing risk in extremist offenders. The Journal of Threat Assessment and Management, 2 (1) , 40-52. https://doi.org/10.1037/tam0000035 Lobato, R. M., Moyano, M., Bélanger, J. J., & Trujillo, H. M. (2021) . The role of vulnerable environments in support for homegrown terrorism: Fieldwork using the 3N model. Aggressive Behavior, 47 (1) , 50-57. https://doi.org/10.1002/ab.21933 López-Rincon, A. (2019) . Emotion recognition using facial expressions in children using the NAO Robot. International Conference on Electronics, Communications and Computers (CONIELECOMP) . https://doi.org/10.1109/CONIELECOMP 2019.8673111 Louzán Mariño, R. (2020) . Mejorar la calidad de las evaluaciones de riesgos psicosociales mediante el control de sesgos. Archivos de Prevención de Riesgos Laborales, 23 (1) , 68-81. https://dx.doi.org/10.12961/aprl.2020.23.01.06 Maithri M, Raghavendra U, Gudigar A, Samanth J, Barua PD, Murugappan M. Chakole Y, Achar y a UR. (2022) . Automated Emotion Recognition: Current Trends and Future Perspectives. Computer Methods and Programs in Biomedicine, 106646. Mallitasig, A., & Wladimir, H. (2018) . Paul Ekman y las microexpresiones faciales de las emociones. https://repositorio.pucesa.edu.ec/handle/123456789/2691 Markovikj, D., Gievska, S., Kosinski, M., & Stillwell, D. (2021) . Mining Facebook Data for Predictive Personality Modeling. Proceedings of the International AAAI Conference on Web and Social Media, 7 (2) , 23-26. Matsumoto, D., & Ekman, P. (2008) . Facial expression análisis. Scholarpedia, 3 (5) . 4237. https://doi.org.10.4249/scholarpedia.4237 Mellouk, W., & Handouzi, W. (2020) . Facial emotion recognition using deep learning: review and insights. Procedia Computer Science, 175, 689-694. Meneses, J. (2013) . Aproximación histórica y conceptos básicos de la psicometría. Psicometría, 25-38. Millon, T. y Davis, R. (2001) . Trastornos de la personalidad en la vida moderna. Barcelona: Masson. Monaro, M., Maldera, S., Scarpazza, C., Sartori, G., & Navarin, N. (2022) . Detecting deception through facial expressions in a dataset of videotaped interviews: A comparison between human judges and machine learning models. Computers in Human Behavior, 127. https://doi.org/10.1016/¡.chb.2021.107063 Moskalenko, S., & McCauley, C. (2009) . Measuring political mobilization: The distinction between activism and radicalism. Terrorism and Political Violence, 21 (2) , 239-260. https://doi.org/10.1080/09546550902765508 Moyano, M. (2011) . Factores psicosociales contribuyentes a la radicalización islamista de jóvenes en España: Construcción de un instrumento de evaluación [Psychosocial factors contributing to the Islamist radicalization of young people in Spain: Construction of an evaluation instrument) . (Doctoral dissertation) . Universidad de Granada, Granada, Spain. Moyano, M., & Trujillo, H. M. (2014) . Evaluación del riesgo de radicalización islamista en cuatro contextos de interés estratégico para España (Risk assessment of Islamist radicalization in four contexts of strategic interest for Spain) . In F. Velasco, & R. Arcos (Eds.) , Estudios en Inteligencia. Respuestas para la Gobernanza Democrática. Ministerio de la Presidencia (Gobierno de España) , y Ed. Plaza y Valdés. Muñiz, J. (2018) . Introducción a la psicometria. Teoría clásica y TRI. Pirámide. Nieto Garcia, A.J. (2019) . El principio de inmediación, el lenguaje no verbal y gestual y las microexpresiones faciales. Diario La Ley, 9491. O'Mahony, N., Campbell, S., Carvalho, A., Harapanahalli, S., Velasco-Hemandez, G., Krpalkova, L., Riordan, D., & walssh, J. (2019) . Deep Learning vs. Traditional Computer Vision. Computer Vision Conference (CvC) . Springer Nature Switzerland. https://doi.org/10.1007/978-3-030-17795-9 10 Olivera, J., Braun, M., & Roussos, A. J. (2011) . Instrumentos para la evaluación de la empatia en psicoterapia [Assessment measures of empathy in psychotherapy/. Revista Argentina de Clinica Psicológica, 20 (2) , 121-132. Ozdemir, M.A., Elagoz, B., Alaybeyoglu, A., Sadighzadeh, R., & Akan, A. (2019) . Real Time Emotion Recognition from Facial Expressions Using CNN Architecture. Medical Technologies Congress (TIPTEKNO) . https://doi.org/10.1109/TIPTEKNO.2019.8895215 Ozer, S., & Bertelsen, P. (2018) . Capturing violent radicalization: Developing and validating scales measuring central aspects of radicalization, Scandinavian Joumal of Psychology, 59 (6) , 653-660. https://doi.org/10.1111/siop.12484 Parra, J.A., & Tamayo, R.M. Medidas Implícitas en Cognición. Una Aproximación al Estudio de la Automaticidad. Revista Colombiana de Psicología, 30 (1) , 88-110. Pathar, R., Adivarekar, A., Mishra, A., & Deshmukh, A. (2019) . Human Emotion Recognition using Convolutional Neural Network in Real Time. 1st International Conference on Innovations and Information Communication Technology (ICIICT) . https://doi.org/10.1109/ICIICT1.2019.8741491 Petty, R. E., & J. T. Cacioppo (1986) . Communication and Persuasion: Central and Peripheral Routes to Attitude Change. New York: Springer-Verlag. Petty. R.E., & Wegener, D.T. (1998) . Attitude change. En D. Gilbert, S. Fiske, y G. Lindzey (Eds.) , The Handbook of Social Psychology (4th ed.) . New York: McGraw-Hill. Porter, S., Brinke, L., & Wallace, B. (2012) . Secrets and lies: Involuntar y leakage in deceptive facial expressions as a function of emotional intensity. Journal of Nonverbal Behavior, 36 (1) , 23­ 27. https://doi.org/10.1007/s10919-011-0120-7 Pressman, D.E., & Flockton, J.S. (2012) . Calibrating risk of violent political extremists and terrorists: The VERA-2 structured assessment. The British Journal of Forensic Practice, 14 (4) , 237-251. https://doi.org/10.1108/14636641211283057 Pressman, E. D. (2009) . Risk assessment decisions for violent political extremism. Canadian Centre for Security and Intelligence Studies, Carleton University. https://www.publicsafety.gc.ca/cnt/rsrcs/pblctns/2009-02-rdv/index-en.aspx Pressman, E. D. (2014) . Violent extremist risk assessment. Issues and applications of the VERA 2 in a high- security correctional setting. In A. Silke (Ed.) , Prisons, Terrorism and Extremism: Critical Issues in Management, Radicalisation and Reform (pp. 122-143) . Routledge. Ramos Rodriguez, L.M. (2019) . Empatía cognitiva afectiva: una revisión teórica. Universidad Seor de Sipán. Redmon, J., Divvala, S., Girshick, R., & Farhadi, A. (2016) . You Only Look Once: Unified, Real-Time Object Detection. https://doi.org/10.48550/arXiv. 1506.02640 Russakovsky, O., Deng, J., Su, H., Krause, J., Satheesh, S., Ma, S., Huang, Z., Karpathy, A., Khosla, A., Bernstein, M., Berg, A.C., & Fei-Fei, L. (2015) . ImageNet Large Scale Visual Recognition Challenge. International Journal of Computer Vision, 115, 211-252. https://doi.org/10.1007/s11263-015-0816-y Schultz, W. J., Bucerius, S. M., & Haggerty, K. D. (2021) . The floating signifier of "radicalization": Correctional officers' perceptions of prison radicalization. Criminal Justice and Behavior, 48 (6) , 828-845. https://doi.org/10.1177/0093854820969749 Silke, A. (2014) . Risk assessment of terrorist and extremist prisoners. In A. Silke (Ed.) , Prisons, Terrorism and Extremism: Critical Issues in Management, Radicalisation and Reform (pp. 108­ 121) . Routledge. Smith, Jonathan Z. (1998) . Religion, Religions, Religious, en Taylor, Mark C., ed., Critical Terms for Religious Studies, University of Chicago Press, pp. 269-284. Stotland, E. (1969) . Explorator y Investigations of Empathy. Psychology, 4, 271-314. https://doi.org/10.1016/S0065-2601 (08) 60080-5 Swann, W. B., Gómez, A., Seyle, D. C., Morales, J. F., & Huici, C. (2009) . Identity fusión: The interplay of personal and social identities in extreme group behavior. Journal of Personality and Social Psychology. 96 (5) , 995-1011. https://doi.org/10.1037/a0013668 Swann, W. B., Jetten, J., Gómez, A., Whitehouse, H., & Bastian, B. (2012) . When group membership gets personal: A theor y of identity fusion. Psychological Review, 119 (3) , 441-456. https://doi.org/10.1037/a0028589 Szeady, C., Toshev, A., & Erhan, D. (2013) . Deep Neural Networks for Object Detection. https://proceedings.neurips.cc/paper/2013/file/f7cade80b7cc92b991cf4d2806d6bd 78-Paper.pdf Szegedy, C., Vanhoucke, V., Loffe, S., Shelns, J., & Wonja, Z. (2015) . Rethinking the Inception Architecture for Computer Vision. https://doi.org/10.48550/arXiv.1512.00567 Szeliski, R. (2010) . Computer Vision: Algorithms and Applications. Springer. Tan, M., & Le, Q.V. (2019) . EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks. https://doi.org/10.48550/arXiv.1905. 11946 Tracy, J. L., & Randles, D. (2011) . Four models of basic emotions: A review of Ekman and Cordaro, Izard, Levenson, and Panksepp and Watt. Emotion Review, 3 (4) 397-405. https://doi.org/10.1177/1754073911410747 Tunstall, S.L., & Beymer, P.N. (2011) . Learning to Think Slower: Review of Thinking, Fast and Slow by Daniel Kahneman. Numeracy, 10 (2) http://doi.org/10.5038/1936-4660.10.2.16 Verma, A., Singh, P., & Alex, J.S.R. (2019) . Modified Convolutional Neural Network Architecture Analysis for Facial Emotion Recognition. International Conference System, Signals, and Image Processing (IWSSIP) . https://doi.org/10.1109/IWSSIP.2019.8787215 Voulodimos, A., Doulamis, N., Doulamis, A., & Protopapadakis, E. (2018) . Deep Learning for Computer Vision: A Brief Review. Computational Intelligence and Neuroscience, 2018, https://doi.org/10.1155/2018/7068349 Waardenburg, J. (1968) . L. Massignon's Study of Religion and Islam: An Essay á Propos of His Opera Minora. Oriens, 21/22 136-158. https://doi.org/10.2307/1579903 Zhong, L., Bai, C., Li, J., Chen, T., Li, S., & Liu, Y. (2019) . A Graph-Structured Representation with BRNN for Static-based Facial Expression Recognition. 14th IEEE International Conference on Automatic Face & Gesture Recognition. https://doi.org/10.1109/FG.2019.8756615 Avance de la técnica Según Scientific Emotional Scanner, S.L. (2018) . Método, sistema y productos de programa de ordenador para detectar un estado emocional y/o conductual de un sujeto (España, patente N. ES2689252) . Oficina Española de Patentes y Marcas. Ministerio de Industria, Comercio y T urismo (OEPM) .https://patentscope.wipo.int/search/es/detail.¡sRdocId=ES232900274&cid=P2.- L1EUPN-01492-2 En la patente el sistema detecta la conducta y el estado emocional de un sujeto a través de la captación de imágenes y audios de la persona en evaluación. La captación de la información a analizar la realiza en un tiempo determinado obteniendo un porcentaje de micro-expresiones aciales, un porcentaje de los gestos determinados y un porcentaje de la paralingüística del sujeto con los que determinan el estado emocional y conductual del sujeto. En nuestro sistema, avanzamos en la técnica, y sobre la imagen del sujeto realizamos una transformación numérica de las micro-expresiones faciales para procesarlas a través de algoritmo de autoaprendizaje para obtener niveles indicativos de coincidencias que nos permite identificar diferentes rasgos de la personalidad de la persona en evaluación. Aviv David G. (2000) . Sistema de detección y vigilancia de anomalías (Estados Unidos de América, patente N. US6028626) . Departamento de Comercio de los Estados Unidos Oficina de Patentes y Marcas de los Estados Unidos (USPTO) . https://patentscope.wipo.int/search/es/detail.¡sRdocId=US39173994&cid=P10-L3U0G3-98357-1 En la patente el sistema capta a través de cámaras de video los movimientos de una o varias personas y estudia esos patrones de movimiento comparándolas con patrones conocidos de personas con intención criminal para determinar el nivel de intención criminal de la o las personas en evaluación. En nuestro sistema, avanzamos en la técnica, e identificamos diferentes patrones emocionales en el sujeto evaluado que al compararlo con los diferentes perfiles prototípicos nos indica el nivel de coincidencia del sujeto con dichos perfiles. Chen Lin (2018) . Método de análisis de la emoción de la figura humana, aparato medio de almacenamiento (China, patente N. WO2019095571) . Administración Nacional de Propiedad Intelectual de China (CNIPA) . https://patentscope.wipo.int/search/es/detaiMsRdocId=WO2019095572&cid=P10-L12AMP-00428-1 La patente es un método de análisis por comparación de las emociones captadas en el rostro de un sujeto en tiempo real, indicando la emoción predominante en la imagen captada. El sistema mejora la eficiencia del reconocimiento facial existentes hasta ese momento. San Segundo Manuel Rosa, Sainz De Baranda Clara, Blanco Ruiz Marian, Larrabeiti Lopez David, Urueña Pascual Manuel, Robledo García José Carlos, Peláez Moreno Carmen, Gallardo Antolín Ascensión, Minguez Sánchez Alba, Riesgo Alcaide Teresa, Lanza Gutiérrez José Manuel, Marino Andrés Rodrigo, Miranda Calero José Ángel, Felipe Canabal Manuel, Portela García Marta, Perez Garcilópez Isabel, García Souto José Antonio, López Ongil Celia, Olías Ruiz Emilio, García Valderas Mario (2020) . Sistema y método para determinar un estado emocional de un usuario (España patente N. WO2020104722) . Oficina Española de Patentes y Marcas. Ministerio de Industria, Comercio y Turismo (OEPM) . https://patentscope.wipo.int/search/es/detaiMsRdocId=WO2020104722&cid=P21-L1NY5S85357-1 La patente es un sistema portátil para determinar el estado emocional de un sujeto a través de dispositivos físicos (sensores) que captan datos fisiológicos y el audio del sujeto. La información se procesa a través de un algoritmo de aprendizaje automático. En ambas patentes se determina un estado emocional de un sujeto a través de diferentes métodos y con diferentes adaptabilidades, sin embargo, ambas patentes determinan sólo una emoción predominante, ya sea con el fin de identificar la emoción en el sujeto o marcar una emoción determinar para que cuando aparezca salte una señal de alarma o aviso. En nuestro sistema, avanzamos en la técnica realizando una clasificación de las diferentes emociones expuestas en el mismo momento, determinando el nivel de probabilidad y predominancia de todas las emociones de un momento determinado, creando un perfil emocional del sujeto en evaluación y permitiéndonos reconocer determinados patrones ya delimitados para la generación de diferentes informes de asesoramiento. Serani Mostazal Jorge (2018) . Sistema y método para prevenir actos terroristas basados en evaluaciones psicométricas, de los sentidos, de reflejos y fisiológicas (Chile, patente N. WO2018232538) . Instituto Nacional de la Propiedad Industrial. Ministerio de Economía (INAPI) . https://patentscope.wipo.int/search/es/detail.¡sRdocId=WO2018232538& cid=P10-L3U0QL-01959-1 La patente es un sistema para la detección de la intencionalidad terrorista de una persona a través de sensores, cámaras y pruebas diagnósticas que tienen una serie de órdenes que el sujeto en evaluación debe cumplir, determinando de esa forma la intencionalidad de un sujeto ante un atentado terrorista. Las mediciones y pruebas se realizan de forma remota y no invasiva. Con relación al método de análisis, hacía falta un método de evaluación no invasivo en el que el sujeto pudiese ser ciertamente evaluado sin ningún tipo de orden o contacto previo, y que además nos permitiese obtener la información necesaria para un perfil completo de la persona evaluada. En nuestro sistema, avanzamos en la técnica, permitiendo evaluar a persona sin que sepa que está siendo evaluada, generando un perfil emocional y de variaciones de temperatura corporal, ritmo cardíaco y respiratorio que nos permite evaluar de una forma más completa al sujeto. Charles John Berg Jr, David Keith Ewart, Nick Robert Harrington (2009) . Métodos para medir la respuesta emocional y preferencia de selección (México, patente N. MXMX/a/2009/002419) . Instituto Mexicano de la Propiedad Industrial. https://patentscope.wipo.int/search/es/detail.¡sRdocId=MX5401336&cid=P10-L3U138-06646-1 La patente es un método para el estudio de los consumidores. Se le presenta una imagen determinada al consumidor (estímulo visual) y se recoge la información biométrica mientras se presenta la imagen. Se muestra un estímulo visual a un sujeto en evaluación con fines comerciales para determinar a nivel emocional cuál es su preferencia de selección. En nuestro sistema, avanzamos en la técnica, ampliando el campo de aplicación de la técnica y determinando a través de un estímulo visual diferentes patrones de comportamiento, posibilitando entrar en el campo tanto de la seguridad, como de la selección de personal o reacondicionamiento de marcas entre otros, al permitirnos evaluar comportamientos específicos en función de la necesidad práctica de aplicación. Varona Gómez Javier, Arellano Távara Diana, Mascaró Oliver Miquel, Manresa Yee Cristina, Garcés Rayo Simón, Filippini Juan Sebastián (2017) . Método y sistema para el reconocimiento del estado de ánimo por medio de análisis de imagen (España, patente N. ES2633152) . Oficina Española de Patentes y Marcas. Ministerio de Industria, Comercio y Turismo (OEPM) . https://patentscope.wipo.int/search/es/detaiMsRdocId=ES204710062&cid=P10-L3U1CJ-09810-1 La patente es un sistema para determinar el estado de ánimo de un sujeto a través de las expresiones y movimientos faciales. La invención se centra en el estado de ánimo y no en el estado emocional, entendiendo el estado de ánimo como un concepto distinto al estado mocional. El sistema capta una colección de imágenes faciales que transforma a movimientos faciales personalizados para cada sujeto en evaluación, siendo esta colección de imágenes mayores que las necesarias para determinar el estado emocional de un sujeto. En nuestro caso es una patente reseñable porque hace uso de la Al para determinar un estado de ánimo, en nuestro caso, avanzamos en la técnica porque usamos Al para determinar los diferentes patrones emocionales del sujeto en evaluación, llevando a una rúbrica emocional y fisiológica que nos aporta más información. Teniendo en cuenta todos los avances existentes en el campo del reconocimiento de las emociones, de los patrones fisiológicos y/o patrones predictivos de comportamiento de un sujeto en evaluación, se echaba en falta desarrollar un sistema que ampliara las posibilidades de actuación antes diferentes campos de evaluación, llevando la invención a la seguridad, la defensa del estado de derecho y/o los derechos individuales de las personas, selección de personal entre otros, y alejados del campo del marketing y la venta de productos o servicios. Explicación de la invención El Sistema detecta y analiza las reacciones emocionales de un sujeto al visualizar una batería de imágenes con carga emocional de distinta intensidad, mediante IA con la que se realiza la transformación de los datos de flujo capturados en datos numéricos. Se establece a partir de estos datos uno o varios perfiles de respuestas que permiten al Sisterna la creación de uno o varios patrones emocionales de la persona en evaluación. Posteriormente el Sistema compara el patrón, o patrones de respuestas obtenidos, con patrones de respuesta prototípicos elaborados mediante análisis masivo de datos, la IA y la Psicología. Los constructos a evaluar se obtienen mediante el uso de modelos teóricos y algoritmos como resultado del análisis de las respuestas emocionales de los sujetos a las imágenes que conforman el Sistema de evaluación. El proceso de validación de cada constructo del Sistema, ha tenido como referencia desde el inicio las directrices dadas por Muñiz y Fonseca-Pedrero (2019) : "Diez pasos para la construcción de un test", así como los principios éticos y las directrices de investigación aprobadas por la Comisión Nacional de Test del Consejo General de la Psicología de España (2014) que toman como referencia los trabajos de la International Test Commission (2014) . Tal y como afirman Muñiz y Fonseca-Pedrero (2019) : "siguiendo los diez pasos propuestos, se pueden construir test objetivos con propiedades psicométricas adecuadas apoyadas en evidencias empíricas". Estos patrones de comparación, pertenecientes a distintos grupos sociales de referencia, tienen en cuenta en su análisis: la edad, el sexo, el sistema cultural, de creencias y los valores principales de referencia para el comportamiento social del sujeto, entre otras variables relevantes. Se analizan de forma prioritaria la existencia de valores que indican patrones culturales que llevan al sujeto a discernir lo que es bueno y justo en la sociedad y lo que no lo es. Esta detección se basa en los modelos teóricos de análisis previamente diseñados, puestos a prueba mediante hipótesis de contrastación y validados científicamente. El sistema cuenta con bases de datos propias configuradas mediante las variables halladas en los análisis masivos de datos, fruto de la recogida de datos en más de 50 ciudades españolas de 18 CCAA, mediante entrevistas personalizadas, cuestionarios de opinión, registros fisiológicos, test de evaluación de personalidad y evaluación de registro de emociones a imágenes con distinta carga emocional. Por lo tanto, las bases de datos del Sistema están validadas científicamente y poseen evidencias suficientes de fiabilidad y validez para poder emitir n informe final automatizado de asesoramiento sobre la persona evaluada. La base de datos consta de imágenes seleccionadas y clasificadas de forma teórica según los modelos originados por expertos en psicología de las emociones, psicología social y psicología de las religiones, y confirmadas tras el análisis estadístico y psicométrico de los datos obtenidos, el análisis masivo de datos y la IA. Esto permite establecer categorías y patrones de respuesta emocional que facilitan al Sistema la comparación entre las reacciones emocionales que se producen en el sujeto en estudio y las bases de datos internas, obteniendo así tantos perfiles emocionales prototípicos comparativos de cada persona evaluada como sean necesarios hasta facilitar la generación de un informe personalizado de la persona evaluada. El Sistema, mediante flujo de captación de datos, detecta y analiza las respuestas emocionales y los tiempos de reacción de los sujetos mediante inteligencia artificial basándose en el análisis de las micro reacciones emocionales faciales. Estas reacciones se emplean para identificar la respuesta emocional del sujeto con los patrones de respuesta prototípicas de la base de datos del Sistema, validada previamente de forma científica. Estos datos son analizados por los algoritmos creados a partir de los modelos teóricos y prácticos del Sistema, para así obtener finalmente un perfil individual basado en la unión de la Psicología, la Inteligencia Artificial y el Análisis Masivo de Datos. Esta confluencia de distintos campos y metodologías de análisis científicos permite que el Sistema obtenga un perfil innovador, fiable y válido, es decir, de base científica, del sujeto evaluado. Este es respecto a invenciones semejantes en el estado de la técnica, su principal diferencia, dado que posee una aplicación práctica y real previamente contrastada y puesta a prueba. El Sistema parte de la premisa psicológica de que las micro emociones faciales registradas justo inmediatamente después de la exposición a una imagen con carga emocional, que ha sido previamente analizada y validada científicamente para su categorización, responden a las emociones reales del sujeto evaluado, dado que son reflejos incontrolados que exponen actitudes y valores interiorizados de la persona. Durante un periodo de tiempo máximo de 1.5 segundos, desde el inicio de la exposición de una imagen al sujeto evaluado, se extraen de sus micro reacciones faciales un total de seis patrones de respuesta emocional del sujeto. Resulta imposible, sin entrenamiento previo, que un sujeto evaluado pueda controlar su reacción emocional durante ese tiempo tan breve tras la exposición de cada imagen. Especialmente porque las imágenes se alternan en su intensidad y dirección (positiva, negativa o neutra) , siendo imprevisible conocer de antemano cuál será el contenido emocional de la siguiente imagen a visualizar. Cada patrón o patrones emocionales obtenidos por el Sistema son un perfil único y personal, una especia de huella emocional del sujeto ante las imágenes, obtenido mediante datos objetivos de registro, con una metodología científica, fruto del análisis de los datos medidos y los patrones de las bases de datos del Sistema. Finalmente se obtiene un informe individualizado de evaluación que muestra el nivel de semejanza de la persona evaluada con los patrones de repuestas emocional prototípicas del Sistema, apoyado con un grado de confianza estadística, permitiendo inferir cómo el evaluado interpreta la información de su entorno, bajo qué prisma cultural interpreta la sociedad, la presencia de valores culturales relacionados con lo que el evaluado entiende como bueno y justo, por ejemplo, ante la igualdad de género, el respeto a la opinión de otros grupos sociales, igualdad de razas, etc. También evalúa el grado de extremismo y fanatismo que posee frente a sus propias convicciones culturales y sociales, así como la capacidad empática - o carencia de la misma del sujeto ante el sufrimiento animal y humano, especialmente frente a grupos de referencia ajenos al suyo. Para la captación de datos, el Sistema cuenta con un conjunto de cámaras 4k con capacidad de seguimiento y reconocimiento facial de emociones. Así mismo cuenta con cámaras térmicas para medir la variación corporal de temperatura que experimente el sujeto en evaluación ante la exposición de imágenes con carga emocional. Además, el Sistema cuenta con recogida de datos mediante fotopletismografía remota o rPPG. Ésta es una técnica que permite obtener mediciones de parámetros fisiológicos como la frecuencia cardíaca y el ritmo respiratorio. Con esta técnica se puede medir la variación periódica del volumen sanguíneo que se propaga por el sistema cardiovascular provocado por el pulso, así como el volumen de aire que pueden contener los pulmones. Actualmente existen diferentes bases de datos públicas como, por ejemplo, COHFACE dataset (2017) , que recoge un gran número de sujetos grabados bajo diferentes condiciones de iluminación y con señales fisiológicas extraídas que nos permiten comprobar la fiabilidad de este sistema. La unidad de procesamiento de control será la plataforma de conexión entre el Sistema AIDOS y el cliente final. Además, emite automáticamente el informe generado por el Sistema a la finalización del proceso. En la configuración del Sistema pueden existir diferentes unidades de procesamiento de control para un mismo servidor local. Un servidor del Sistema mantiene conectados al Sisterna los recursos de forma remota y es responsable de actualización del mismo. La conexión será autónoma, teniendo el servidor local la capacidad de conexión a internet sin la necesidad de redes wifi-locales. Si la conexión al servidor del Sistema se mantuviese desconectada durante un periodo de tiempo específico el sistema se bloquearía. El sistema se divide en diferentes bloques. El primer bloque corresponde al flujo de imágenes a través de los dispositivos de emisión, en el que las imágenes de las bases de datos fueron seleccionadas y categorizadas de forma científica. Se partieron de un total de 350 imágenes de distinta carga emocional y categorizadas de forma racional por doctores expertos en psicología social. Tras el proceso de validación con técnicas de análisis masivo de datos de los modelos propuestos para cada constructo, se seleccionaron finalmente 50 imágenes que conforman de forman de inicial la batería de imágenes. La creación de la base de datos de imágenes del Sistema, como todas las bases de datos que conforman el Sistema AIDOS, ha pasado un proceso de validación científica antes de obtener su configuración final. Su proceso ha tomado como referencia las directrices de Muñiz y Fonseca (2019) para la construcción de test. Un grupo de expertos doctores en psicología social seleccionaron un total de 150 imágenes libres de derechos de autor o bajo la licencia de Creative Commons que se desglosaron en 12 categorías: 1. Imágenes evaluadas emocionalmente como positivas por todos los sujetos independientemente del marco cultural de referencia. 2. Imágenes evaluadas emocionalmente como positivas por todos los sujetos con marco cultural de referencia próximo al islam. 3. Imágenes evaluadas emocionalmente como positivas por todos los sujetos con marco cultural de referencia próximo al judaísmo. 4. Imágenes evaluadas emocionalmente como positivas por todos los sujetos con marco cultural de referencia próximo al cristianismo. 5. Imágenes evaluadas emocionalmente como positivas exclusivamente por sujetos que justifican el uso de la violencia en vinculación a sus creencias religiosas. 6. Imágenes evaluadas emocionalmente como neutras por todos los sujetos independientemente del marco cultural de referencia. 7. Imágenes evaluadas emocionalmente como negativas por todos los sujetos independientemente del marco cultural de referencia. 8. Imágenes evaluadas emocionalmente como muy negativas por todos los sujetos independientemente del marco cultural de referencia para detectar sujetos sin capacidad empática. 9. Imágenes evaluadas emocionalmente como muy positivas por todos los sujetos independientemente del marco cultural de referencia para detectar sujetos sin capacidad empática. 10. Imágenes evaluadas emocionalmente como negativas por todos los sujetos con marco cultural de referencia próximo al islam. 11. Imágenes evaluadas emocionalmente como negativas por todos los sujetos con marco cultural de referencia próximo al judaísmo. 12. Imágenes evaluadas emocionalmente como negativas por todos los sujetos con marco cultural de referencia próximo al cristianismo. Posteriormente, se seleccionaron 200 imágenes del Open Affective Standardized Image Set (OASIS) de Benedek Kurdi, Shayn Lozano y Mahzarin R. Banaji (2016) . Ésta es una batería que en el momento de su acceso contaba con dos mil imágenes validadas científicamente, evaluadas y categorizadas por la reacción emocional que provocaban mayormente en los sujetos. El mismo grupo de expertos doctores en psicología social seleccionaron un 10% del total de estas y se dividieron en cuatro categorías, siguiendo la clasificación propia de los autores de OASIS: animales, escenarios, objetos y personas. Posteriormente se agruparon en: positivas, neutras y negativas, según el valor a priori que los autores habían descubierto que la imagen poseía. La clasificación quedó de la siguiente forma: 1. Cincuenta imágenes de animales: negativas, positivas y neutras. 2. Cincuenta imágenes de escenarios: negativas, positivas y neutras. 3. Cincuenta imágenes de objetos: negativas, positivas y neutras. 4. Cincuenta imágenes de personas: negativas, positivas y neutras. Se realizaron numerosas entrevistas con el fin de seleccionar a un grupo de 70 personas que presentaran las características de ser altamente creyentes y practicantes de su religión, dentro de las religiones abrahámicas. Todos los sujetos evaluados respondieron previamente a la Escala de detección del extremismo y radicalismo (SERR) , la Escala de intenciones de activismo y radicalismo (ARI) y la escala de evaluación de la personalidad (OPERAS) que evalúa los cinco grandes rasgos de la personalidad: extraversión, estabilidad emocional, responsabilidad, amabilidad, y apertura a la experiencia. Posteriormente visualizaron las 350 imágenes y las valoraron como positivas, negativas o neutras. Mientras las visualizaban sus reacciones faciales fueron captadas por cámaras de alta resolución 4K razón de 3 imágenes por segundo los dos primeros segundos tras el inicio de exposición de cada imagen. La base de datos original de la que se extrajeron los modelos finales contó para su análisis con más de un millón doscientos cincuenta mil datos obtenidos mediante entrevistas personales y cuestación masiva, tanto personal como online en personas mayores de 16 años residentes en España. Una vez transformadas las reacciones emocionales por la IA en datos numéricos, se aplicaron técnicas de análisis propias de la psicometría y el análisis masivo de datos para la creación de modelos y algoritmos. Estos modelos y algoritmos obtenidos fueron puestos a prueba nuevamente con sujetos que validaron la idoneidad de la selección final de las 50 imágenes que inician la base de datos del Sistema AIDOS. Esta base de datos de imágenes del Sistema no es estática, sino que cuenta dentro de su propio diseño con la capacidad de integración y validación paulatina de nuevas Imágenes que permiten continuamente incorporar imágenes a la base de datos con la misma capacidad de discriminación, fiabilidad y validez científica. Esto es posible gracias a las metodologías de aprendizaje automático incorporados en la IA del Sistema. Los análisis realizados han permitido establecer patrones emocionales prototípicos y determinar grados de confianza en la toma de decisiones por parte del algoritmo, de forma que la entrada de datos de un sujeto evaluado se analiza con los modelos del Sistema, generando finalmente un informe automatizado sobre el sujeto evaluado. Éste indicará el marco de referencia cultural del sujeto en el que se encuadran sus valores acerca de lo que es socialmente considerado como bueno y justo, el nivel de radicalismo o extremismo de sus ideas y creencias, especialmente si considera justificado el uso de la violencia para imponer sus ideas y, en último lugar, si presenta rasgos de insensibilidad frente al dolor ajeno. Estos datos finales se ofrecerán como una herramienta de asesoramiento para el usuario del Sisterna, quien a partir de la información obtenida puede determinar, por ejemplo, la idoneidad de entrevistar en mayor profundidad al sujeto o no. Una vez que el sujeto entra en evaluación en el Sistema, éste comienza a captar sus reacciones en el módulo de entrada a través de los dispositivos de captación de imágenes del sujeto evaluado: cámaras Térmicas, fotopletismografía remota y 4k de seguimiento y reconocimiento facial. Los tres bloques siguientes corresponden a los algoritmos de inteligencia artificial (IA) para el análisis y toma de decisiones sobre: 1. Los valores Individuales que conforman la referencia cultural del Sujeto evaluado 2. El grado de extremismo y radicalismo que posee el sujeto evaluado en sus valores de referencia existencial y vital. 3. El grado de falta de empatía del sujeto evaluado ante el dolor y sufrimiento ajeno. En función de las respuestas del sujeto durante la evaluación, el algoritmo va tomando decisiones que permiten ajustar la mejor imagen o imágenes siguientes a proyectar, siendo éste un sistema totalmente autónomo, con el objetivo de optimizara el número de imágenes a visualizar para que el Sistema pueda emitir un informe final en el menor tiempo posible, con la menor intromisión y la mayor eficiencia. Al mismo tiempo el Sistema, a través del dispositivo de captación adecuado, toma una imagen termográfica del sujeto antes, durante y justo inmediatamente después del visionado de imágenes, con el objetivo de medir posibles cambios de temperatura durante la evaluación. Estos atos son tenidos en cuenta para determinar la respuesta emocional del sujeto y para el establecimiento de los patrones de respuesta del individuo evaluado. Durante el análisis, el Sistema procesa una serie de indicadores emocionales por cada imagen expuesta que indican, según el bloque del proceso de evaluación en el que se encuentre el sujeto, una evaluación de cada constructo, con el objetivo de recopilar datos para el procesamiento y toma de decisiones de los algoritmos, siendo estos: 1. Sistema de Valores Individuales de referencia cultural del sujeto evaluado. Los indicadores situarían al sujeto dentro de una escala de los distintos comportamientos culturales monoteístas abrahámicas de referencia analizados científicamente de forma previa y recogidos en el Sisterna. También existe la posibilidad de que el sujeto no pertenezca o comparta un sistema de creencias y valores prototípicas de las culturas abrahámicas, por lo que el sujeto sería categorizado como "sin referencia cultural dentro de la base de datos". 2. Extremismo y radicalismo en los valores de referencia del sujeto. Según el número de indicadores positivos obtenidos el algoritmo permite establecer hasta 5 niveles de este constructo. 3. Nivel de falta de empatía del sujeto. El sistema detecta el grado de empatía o su ausencia, ante el dolor y el sufrimiento ajeno. Especialmente el Sistema es sensible para detectar la presencia de características prototípicas sádicas (placer ante el dolor ajeno) y la alexitimia (incapacidad de sentir o expresar emociones) . Según el número de indicadores positivos obtenidos el algoritmo permite establecer hasta 5 niveles de este constructo. La información recibida permite al Sistema emitir un informe del sujeto evaluado, donde se indica el nivel de similitud del sujeto evaluado con uno o varios perfiles prototípicos de la base de datos indicando un determinado grado de confianza estadística. Breve descripción de los dibujos Para complementar la descripción que se está realizando y con objeto de ayudar a una mejor comprensión de las características de la invención, se acompaña como parte integrante de dicha descripción, unos Diagramas de Flujos donde, además, se describen actividades anexas ante la imposibilidad de representarlas en este tipo de representaciones gráficas. Dibujo 1.- Corresponde al Flujograma 1 que define el Sistema AIDOS donde: El servidor (101) con conexión 5G alberga el sisterna que se encarga de la recepción de los datos de entrada de las cámaras RGB y Térmicas (103) y da salida a las imágenes hacia los monitores (104) . El servidor (101) con conexión 5G está conectado con un servidor (102) que mantiene la llave de uso del sistema, lo mantendrá actualizado y sin el cual no se podrá utilizar. Al servidor (101) se le conectan tantos ordenadores de control (105) como el diseño de implantación hagan necesarios. Ese ordenador de control (105) será el encargado de entregar el informe de Evaluación (106) al usuario del sistema. Dibujo 2.- Corresponde al Flujograma 2 que define el Modelo de Funcionalidad del Sistema en el que: El sistema emite las imágenes de la base de datos (200) . Una vez el sistema comienza a evaluar a un sujeto (201) genera un registro único de identificación de la persona en evaluación para mantener una trazabilidad del sujeto en evaluación durante todo el proceso y capta las micro xpresiones faciales y los cambios fisiológicos producidos (206) ante las imágenes expuestas (200) y los representa de forma numérica. Una vez tenemos los valores numéricos de las reacciones del sujeto podemos procesarlos y tratarlos hacia los diferentes modelos y algoritmos del sistema para: a) Identificar el Sistema de Valores Individuales de Referencia del Sujeto (202) y se almacena la información obtenida en la base de datos del sistema (207) , b) Identificar el nivel de extremismo y radicalismo en los valores de referencia del sujeto (203) y se almacena la información obtenida en la base de datos del sistema (208) , o c) Identificar el nivel de empatía del sujeto ante el sufrimiento ajeno, animal y humano (204) y se almacena la información obtenida en la base de datos del sistema (209) . Toda esta información es enviada al algoritmo final (205) multi-operador capaz de sintetizar y tratar la información para general el informe final (210) de evaluación. El informe final (210) es la salida del sistema. Cabe destacar la flexibilidad del permitiendo identificar cada uno de los modelos de forma independiente o conjunta (202) , (203) y (204) , con salidas directa de cada modelo al algoritmo final multi-operador capaz de sintetizar y tratar la información para general el informe final de evaluación (205) . Dibujo 3. Corresponde al Flujograma 3 que define el Funcionamiento Interno del Sistema donde: Una vez comenzada la evaluación (300) , el sistema proyecta las imágenes en los monitores o pantallas del sistema (301) , la entrada de información se hace a través de las cámaras RGB 4K, la fotopletismografía remota y las cámaras térmicas (302) . El sistema realiza un procesamiento del flujo de imágenes de entrada, generando una identificación única del sujeto para mantener la trazabilidad de los datos (303) , comprueba si el sujeto ya está identificado en el sistema (304) para continuar con el proceso de evaluación (305) o en caso contrario iniciar un contador de repetición (306) antes de analizar y procesar la respuesta emocional del sujeto ante las imágenes expuestas (307) , analizar y procesar los cambios fisiológicos de temperatura, ritmo cardiaco y respiratorio (308) . Toda esa información representada de forma numérica es analizada, procesada y tratada por los diferentes modelos y algoritmos del Sistema (309) y los analiza a partir de los diferentes perfiles prototípicos de la base de datos (310) determinando el grado de confianza estadística. El sistema evalúa si la información recopilada es suficiente para realizar el perfil del sujeto (311) y en caso afirmativo elabora dicho perfil mostrando el nivel de confianza estadística de éste con relación a los almacenados en las bases de datos (312) , extrayendo la información que forma parte de los informes prototípicos de la base de datos (313) para elaborar el informe final del sujeto que es entregado por el ordenador de control (314) . En caso de que no tengamos información suficiente para realizar el perfil del sujeto (311) , aumentamos en una unidad el contador iniciado anteriormente (316) , comprobamos que el número de repeticiones de la secuencia anteriormente descrita es inferior a un número determinado de intentos de evaluación (317) y en caso de que el contador sea inferior a un número determinado de intentos de evaluación continua con el proceso (305) , recopilando y tratando la información del sujeto ante las imágenes expuestas. En caso de que el número de repeticiones haya llegado a un número determinado de ciclos de evaluación, el sistema elabora un perfil del sujeto mostrando el nivel de confianza de este con relación a los distintos perfiles creados (312) , extrayendo la información que forma parte de los informes prototípicos de la base de datos de informes (313) para elaborar el informe final del sujeto que es entregado por el ordenador de control (314) . La gestión de las imágenes del sistema (318) usa la información del estado interno del sistema (309) para seleccionar las imágenes de la base de datos validadas científicamente (319) que debe exponer al sujeto en evaluación. Realización preferente de la invención Una realización preferente de la invención es la que se describe a continuación: Versión Cara a Cara. La Versión Cara a Cara del Sistema se define como la versión de escritorio. El Sistema tendría en esta versión su rendimiento óptimo en un entorno controlado, donde el sujeto evaluado tiene que ir contestando de forma directa si la imagen que está viendo le gusta, no le gusta o la considera neutra emocionalmente. Los dispositivos de entrada de video y la pantalla de exposición de imágenes se colocan inicialmente frente al sujeto, aunque esa disposición puede variar según las necesidades físicas del lugar de la evaluación o el grado que el evaluador desee de detección por parte del sujeto evaluado de la presencia de cámara o cámaras registrando sus respuestas emocionales y fisiológicas. A modo de ejemplo, podría evaluarse a una persona a través de un portátil con conexión a internet o también se podría montar un sistema fijo con un servidor, usando los diferentes periféricos necesarios para cada caso concreto de recogida de datos que se desee efectuar. Este modo de realización preferente de la invención o del Sistema está diseñado y puede ser usado en recursos humanos, en selección de personal, especialmente en puestos relacionados con las fuerzas y cuerpos de seguridad del Estado, Autonómicas y locales, en evaluación científica, en labores policiales o de inteligencia en la recogida de información para la posible toma de decisiones, encuestas de opinión, etc. Otra realización preferente de la invención es aquella en la que su implementación es en espacios públicos con gran afluencia de público. Versión para la Detección de Sujetos en Transito. La invención está diseñada para su implementación en espacios públicos abiertos del tipo: aeropuertos, estaciones de trenes, estadios deportivos, puertos, estaciones de Metro y demás lugares donde exista un alto tránsito y aglomeración de personas. Igualmente está pensada para ser usada en espacios donde es importante la seguridad: bases militares, sedes de los cuerpos y fuerzas de seguridad del Estado, etc... El sistema de evaluación de esta realización preferente se puede ejecutar de dos formas: Evaluación de forma forzada. Cuando se quiere evaluar a un sujeto independientemente de su deseo previo o intención a priori de ser evaluado. Ante la existencia de determinadas evidencias que hagan necesaria su evaluación, bien por la necesidad de descartar la presencia de determinados perfiles en zonas con un nivel de seguridad relevante, bien por patrones automáticos realizados al azar por criterios de seguridad pública. De esta forma se le hace pasar por una serie de zonas de reducción de paso, donde se expone al sujeto a evaluar al dispositivo de emisión de imágenes para poder continuar la marcha, capturando la reacción del sujeto a la imagen y el resto de datos necesarios para el funcionamiento del Sistema. Esta realización preferente de la invención está pensada para cuando se quiere evaluar a un sujeto determinado, haciéndole pasar por un filtro que es el circuito de evaluación. Evaluación Aleatoria. En un espacio abierto, se dispondrán de monolitos con pantallas y un conjunto de dispositivos de captación de datos, escondidas o no fácilmente identificables, alrededor de los dispositivos de proyección de imágenes, con el objetivo de captar las reacciones emocionales del sujeto al visionar la imagen. Con el fin de mostrar las imágenes, sin provocar extrañeza entre los observadores, éstas podrán presentar el formato de bloques de noticias y/o de publicidad, exponiendo las imágenes e evaluación de forma que capten la atención de posibles sujetos a evaluar. Con este modo de realización se pretende evaluar de forma aleatorias personas en tránsito, en un entorno controlado, donde la seguridad pública es prioritaria. En este caso, las imágenes empleadas para la proyección en los monolitos serán aquellas que estadísticamente han mostrado una mayor capacidad de discriminación en las categorías evaluadas, evitando imágenes de alto impacto e índole sensible.

Publicaciones:
ES2959222 (21/02/2024) - A1 Solicitud de patente con informe sobre el estado de la técnica
Eventos:
En fecha 25/07/2022 se realizó Registro Instancia de Solicitud
En fecha 11/08/2022 se realizó Admisión a Trámite
En fecha 11/08/2022 se realizó 1001P_Comunicación Admisión a Trámite
En fecha 25/10/2022 se realizó Concesión solicitud de reducción de tasas
En fecha 28/10/2022 se realizó Superado examen de oficio
En fecha 02/11/2022 se realizó Publicación concesión reducción de tasas
En fecha 17/02/2023 se realizó Realizado IET
En fecha 24/02/2023 se realizó 1109P_Comunicación Traslado del IET
En fecha 22/05/2023 se realizó PETEX_Petición de examen sustantivo
En fecha 22/05/2023 se realizó 5215P_Observaciones del solicitante al IET, Opinión Escrita y/o alegaciones a observaciones de terceros
En fecha 21/02/2024 se realizó Publicación Solicitud
En fecha 21/02/2024 se realizó Publicación Folleto Solicitud con IET (A1)

Fuente de la información

Parte de la información aquí publicada es pública puesto que ha sido obtenida de la Oficina de Propiedad Industrial de los diferentes países el 29/04/2024 y por lo tanto puede ser que la información no esté actualizada.

Parte de la información aquí mostrada ha sido calculada por nuestro sistema informático y puede no ser veraz.

Privacidad

Si considera que al información aquí publicada afecta a su privacidad y desea que eliminemos la información aquí publicada envíe un email a info@patentes-y-marcas.com o rellene el formulario que encontrará aquí.

Información sobre el registro de patente nacional por Sistema de evacuación de patrones emocionales faciales basado en interacción de metodologías de investigación , extracción de datos, modelos teóricos propios e inteligencia artificial con el número P202200065

El registro de patente nacional por Sistema de evacuación de patrones emocionales faciales basado en interacción de metodologías de investigación , extracción de datos, modelos teóricos propios e inteligencia artificial con el número P202200065 fue solicitada el 25/07/2022. Se trata de un registro en España por lo que este registro no ofrece protección en el resto de países. El registro Sistema de evacuación de patrones emocionales faciales basado en interacción de metodologías de investigación , extracción de datos, modelos teóricos propios e inteligencia artificial con el número P202200065 fue solicitada por DESARROLLO DE INTELIGENCIA ARTIFICIAL Y PSICOLOGIA S.L. mediante los servicios del agente María Josefa VILLA JIMÉNEZ. El registro [modality] por Sistema de evacuación de patrones emocionales faciales basado en interacción de metodologías de investigación , extracción de datos, modelos teóricos propios e inteligencia artificial con el número P202200065 está clasificado como G06N 5/045 según la clasificación internacional de patentes.

Otras invenciones solicitadas por DESARROLLO DE INTELIGENCIA ARTIFICIAL Y PSICOLOGIA S.L.

Es posible conocer todas las invenciones solicitadas por DESARROLLO DE INTELIGENCIA ARTIFICIAL Y PSICOLOGIA S.L. entre las que se encuentra el registro de patente nacional por Sistema de evacuación de patrones emocionales faciales basado en interacción de metodologías de investigación , extracción de datos, modelos teóricos propios e inteligencia artificial con el número P202200065. Si se desean conocer más invenciones solicitadas por DESARROLLO DE INTELIGENCIA ARTIFICIAL Y PSICOLOGIA S.L. clicar aquí.

Otras invenciones solicitadas en la clasificación internacional de patentes G06N 5/045.

Es posible conocer invenciones similares al campo de la técnica se refiere. El registro de patente nacional por Sistema de evacuación de patrones emocionales faciales basado en interacción de metodologías de investigación , extracción de datos, modelos teóricos propios e inteligencia artificial con el número P202200065 está clasificado con la clasificación G06N 5/045 por lo que si se desea conocer más registros con la clasificación G06N 5/045 clicar aquí.

Otras invenciones solicitadas a través del representante MARÍA JOSEFA VILLA JIMÉNEZ

Es posible conocer todas las invenciones solicitadas a través del agente MARÍA JOSEFA VILLA JIMÉNEZ entre las que se encuentra el registro patente nacional por Sistema de evacuación de patrones emocionales faciales basado en interacción de metodologías de investigación , extracción de datos, modelos teóricos propios e inteligencia artificial con el número P202200065. Si se desean conocer más invenciones solicitadas a través del agente MARÍA JOSEFA VILLA JIMÉNEZ clicar aquí.

Patentes en España

Es posible conocer todas las invenciones publicadas en España entre las que se encuentra el registro patente nacional por Sistema de evacuación de patrones emocionales faciales basado en interacción de metodologías de investigación , extracción de datos, modelos teóricos propios e inteligencia artificial. Nuestro portal www.patentes-y-marcas.com ofrece acceso a las publicaciones de patentes en España. Conocer las patentes registradas en un país es importante para saber las posibilidades de fabricar, vender o explotar una invención en España.

Patentes registradas en la clase G

Es posible conocer todas las patentes registradas en la clase G (FISICA) entre las que se encuentra la patente Sistema de evacuación de patrones emocionales faciales basado en interacción de metodologías de investigación , extracción de datos, modelos teóricos propios e inteligencia artificial con el número P202200065. Conocer las patentes registradas en una clase es importante para saber las posibilidades de registrar una patente en esa misma clase.

Patentes registradas en la clase G06

Es posible conocer todas las patentes registradas en la clase G06 (COMPUTO; CALCULO; CONTEO) entre las que se encuentra la patente Sistema de evacuación de patrones emocionales faciales basado en interacción de metodologías de investigación , extracción de datos, modelos teóricos propios e inteligencia artificial con el número P202200065. Conocer las patentes registradas en una clase es importante para saber las posibilidades de registrar una patente en esa misma clase.

Patentes registradas en la clase G06N

Es posible conocer todas las patentes registradas en la clase G06N (SISTEMAS DE COMPUTADORES BASADOS EN MODELOS DE CALCULO ESPECIFICOS) entre las que se encuentra la patente Sistema de evacuación de patrones emocionales faciales basado en interacción de metodologías de investigación , extracción de datos, modelos teóricos propios e inteligencia artificial con el número P202200065. Conocer las patentes registradas en una clase es importante para saber las posibilidades de registrar una patente en esa misma clase.

¿Tienes alguna duda?
Escribe tu consulta y te responderemos rápida y gratuitamente.
Otras patentes similares
imagen
country P202200064
Fecha solicitud 26/07/2022

Profesionales Recomendados

Facts