resumen
Este artículo propone una base de datos de emociones fNIRS-EEG-FEAD que se puede utilizar para entrenar modelos de reconocimiento de emociones. El estudio registró la actividad eléctrica cerebral y las respuestas hemodinámicas cerebrales de un total de 37 sujetos, así como la clasificación de los sujetos y las calificaciones dimensionales de 24 tipos de estímulos audiovisuales emocionales. Se exploró la relación entre las señales neurofisiológicas y las valoraciones subjetivas y se encontraron correlaciones significativas en la región de la corteza prefrontal. La base de datos se pondrá a disposición del público y tiene como objetivo alentar a los investigadores a desarrollar algoritmos de reconocimiento de emociones y computación afectiva más avanzados.
introducción
La emoción es una reacción intensa y de corta duración del sistema nervioso ante un determinado estímulo. Muchos estudios han demostrado que las estructuras neuronales corticales y subcorticales cerebrales están involucradas en la regulación y el procesamiento de las emociones. Debido a que el sistema nervioso desempeña un papel importante en el control, la respuesta y la regulación de los procesos psicológicos, comprender su función puede ayudarnos a identificar indicadores eficaces de la emoción. Nuestros receptores sensoriales detectan cambios en el entorno interno y externo y transmiten estos cambios a partes relevantes del sistema nervioso del cerebro a través de potenciales de acción (señales). Los sentimientos, pensamientos y decisiones son el resultado de la síntesis de estos estímulos sensoriales. Luego, el sistema nervioso permite a las personas reaccionar consciente o inconscientemente a los cambios en su entorno enviando señales a diferentes órganos, como músculos y glándulas. Esto da lugar a tres vías principales para la medición de las emociones: 1) medir biomarcadores mediante la recopilación de señales fisiológicas (como la frecuencia respiratoria, los latidos del corazón o la actividad eléctrica neuronal); 2) monitorear las manifestaciones externas (como las expresiones faciales macro/micro o el lenguaje corporal); ;3) Evaluación subjetiva (como medidas de autoinforme).
Seleccionar el indicador o indicadores de emoción que mejor representen el estado emocional de un individuo requiere considerar la complejidad de las emociones humanas. Aunque los indicadores externos son fáciles de observar y obtener, varios factores, incluidas las obligaciones sociales y los hábitos personales, dificultan que los observadores externos comprendan las emociones asociadas con estos indicadores. Por otro lado, las señales fisiológicas pueden ser difíciles de interpretar debido a factores como la baja relación señal-ruido, los mecanismos psicofisiológicos individuales, el género y las características psicológicas y físicas. Sin embargo, los biomarcadores son menos susceptibles a indicadores externos y difíciles de ocultar o disfrazar. Además, los avances tecnológicos de los últimos años han hecho que la recopilación de datos sea fácil y barata, lo que permite utilizar señales fisiológicas de forma fiable para detectar emociones humanas.
Cuando se trata de mapear las emociones humanas en estados afectivos semánticos, existen dos marcos ampliamente aceptados: la teoría de las emociones discretas y la teoría de las emociones dimensionales. La teoría de las emociones discretas postula que existe un conjunto central de emociones que es identificable transculturalmente en los humanos. Las seis emociones básicas de Ekman, que incluyen ira, disgusto, miedo, felicidad, tristeza y sorpresa, son un modelo popular en la teoría de las emociones discretas. Cada estado emocional es único y universal, con características específicas que le permiten definir y describir claramente una amplia gama de emociones. Sin embargo, dada la complejidad de las emociones humanas y las diferentes opiniones sobre los componentes emocionales básicos, otros investigadores han propuesto métodos para mapear los estados afectivos en ejes multidimensionales, lo que es la llamada teoría de la emoción dimensional. Hay varios modelos diferentes de esta teoría. Por ejemplo, el modelo tridimensional PAD utiliza placer, excitación y dominancia para describir las emociones humanas, donde el placer representa el grado de felicidad o placer, la excitación representa el nivel de alerta y la dominancia representa la sensación de influencia en el entorno circundante. Otro modelo dimensional popular es el modelo circumplejo, que intenta mapear las emociones en dos ejes: placer y excitación. La rueda de las emociones propuesta por Plutchik (2003) combina la teoría de categorías y la teoría dimensional. Organiza las cuatro emociones primarias opuestas (felicidad, miedo, tristeza e ira) en círculos concéntricos. Aquí, este artículo utiliza el modelo dimensional PAD y las cuatro categorías de emociones en la rueda de emociones de Plutchik para establecer el valor de verdad básico.
En los últimos años, se han publicado muchas bases de datos de referencia de emociones que utilizan indicadores de emoción únicos (unimodales) o múltiples (multimodales) y una o más teorías de las emociones. Por ejemplo, la base de datos de emociones y discursos de Berlín (Emo-DB) registra 535 frases pronunciadas por 10 actores (cinco hombres y cinco mujeres) con el objetivo de mapear sus emociones en seis categorías emocionales (feliz, enojado, ansioso, miedo, aburrimiento y disgusto). ). Los conjuntos de datos de Microexpresiones Espontáneas (SMIC) y Movimientos Microfaciales Espontáneos (SAMM) también son bases de datos unimodales donde se registran las expresiones faciales de los participantes y sus emociones se convierten en emociones categóricas. De manera similar, el conjunto de datos SEED utiliza las señales fisiológicas (EEG) de 15 participantes para clasificar sus emociones. Sin embargo, la complejidad de los estados psicológicos humanos, la conciencia subjetiva y las características inconscientes, y la necesidad de una comprensión integral de las emociones humanas han llevado a los investigadores a realizar investigaciones multimodales sobre el reconocimiento de emociones. El conjunto de datos AMIGOS recopila tres señales fisiológicas e información de grabación de vídeo de rostros y cuerpos de 40 personas para identificar sus cambios emocionales sutiles. DEAP, MAHNOB-HCI, RECOLA, DREAMER y DECAF también son bases de datos multimodales que registran los movimientos oculares, videos faciales, habla y señales fisiológicas de los participantes (EEG, electromiografía (EMG), electrocardiograma (ECG), actividad electrodérmica (EDA)). .
Dado que el cerebro desempeña un papel central en el procesamiento y generación de respuestas emocionales, medir la actividad neuronal puede proporcionar información valiosa sobre este proceso y ayudarnos a comprender mejor cómo se expresan las emociones. Tecnologías como EEG y fNIRS son relativamente económicas y excelentes para recopilar información dinámica sobre el cerebro. Algunos estudios iniciales han destacado la complementariedad de estas técnicas en entornos híbridos, particularmente en el contexto de la investigación de las emociones que mide el acoplamiento neurovascular (la relación entre el flujo sanguíneo cerebral y la actividad neuronal). Aunque existen algunas bases de datos fNIRS-EEG disponibles públicamente que se centran en imágenes motoras, carga mental y análisis de artefactos de movimiento, hasta donde sabemos, actualmente solo hay una base de datos fNIRS-EEG disponible públicamente que se centra en el reconocimiento de emociones. Este conjunto de datos contiene registros de sólo cinco participantes. Por lo tanto, actualmente falta una base de datos de emociones completa y a gran escala que contenga señales fNIRS y EEG para la investigación de las emociones.
Aquí, este estudio creó la base de datos de emociones fNIRS-EEG (FEAD), que registró simultáneamente señales de EEG y fNIRS de 37 participantes mientras respondían a 24 señales emocionales (estímulos audiovisuales). Esta medida bimodal luego se trazó en un modelo de emoción dimensional, utilizando la Escala de autoevaluación del estado de ánimo (SAM) para autoevaluaciones subjetivas que cubren valencia, excitación y dominancia, así como las cuatro categorías discretas de felicidad, ira, miedo, y tristeza. Además, la base de datos FEAD contiene las respuestas de los participantes sobre la familiaridad con el video, información demográfica y la Escala de Afectividad Positiva y Negativa (PANAS), que proporciona información sobre los estados emocionales de los participantes antes del experimento. Este estudio examina esta configuración híbrida como un sistema para medir biomarcadores emocionales y demuestra los resultados preliminares de clasificación de emociones dimensionales de fNIRS y EEG como sistemas unimodales y bimodales.
Procedimientos experimentales
base de datos de estímulos
Actualmente existen una variedad de paradigmas de inducción de emociones, que se dividen principalmente en dos categorías: inducción de emociones endógena y exógena. El método endógeno requiere que los sujetos recuerden recuerdos relacionados con emociones específicas (dichos recuerdos son inciertos e incontrolables). Los métodos exógenos inducen las emociones de los sujetos mediante estimulación externa. Los paradigmas de inducción de emociones exógenas se utilizan más ampliamente en la investigación del reconocimiento de emociones porque los investigadores pueden controlar los estímulos proporcionados a los sujetos.
Las herramientas estandarizadas de inducción de emociones incluyen varios tipos de estímulos, como imágenes, audio, vídeo, lenguaje, videojuegos y realidad virtual (VR). Cada tipo de estímulo tiene sus ventajas y limitaciones, y la elección del tipo de estímulo depende de la pregunta de investigación específica. En este caso, este estudio eligió la estimulación por video porque tiene las ventajas de una alta validez ecológica, captación rápida de la atención, pequeños artefactos de movimiento, etc., y puede brindar una experiencia cercana al mundo real.
Se recopilaron 150 videoclips de YouTube utilizando los siguientes criterios:
1. El vídeo evoca una emoción.
2. No hay marcas de agua, logotipos ni anuncios obvios en el video para eliminar prejuicios.
3. El contenido del vídeo debe ser lo suficientemente claro como para que los participantes puedan entenderlo sin explicaciones adicionales.
4. Elija videos con menos vistas para minimizar efectos de confusión como la familiaridad.
5. El vídeo es lo suficientemente largo como para rastrear las respuestas hemodinámicas, pero no afecta el estado de ánimo, no induce fatiga ni aumenta la carga cognitiva.
Dos psicólogos (1 hombre y 1 mujer) revisaron los videos e identificaron 76 videoclips de 80 segundos de duración que cubrían una amplia gama de escenarios (por ejemplo, interacciones humanas, animales, naturaleza, comida y comedia).
Para verificar aún más la efectividad de estos videos para provocar emociones, este estudio realizó una encuesta en Amazon Mechanical Turk (MTurk). Se pidió a los encuestados que vieran 76 videos y respondieran cinco preguntas sobre cada video. La primera pregunta es sobre la familiaridad del sujeto con el vídeo, que se evalúa mediante una escala Likert estándar de 5 puntos (1=nada familiar, 5=muy familiar). Las siguientes tres preguntas utilizan una escala Likert estándar de 9 puntos (escala SAM) para evaluar la valencia, excitación y dominancia (VAD) de la emoción. La última pregunta se refiere a las emociones centrales en el eje principal de la rueda de emociones de Plutchik. La encuesta de MTurk para este estudio está limitada a personas mayores de 18 años y aquellas con calificaciones de MTurk Master. Este estudio recopiló 169 respuestas durante 14 días, 106 de las cuales estaban completas. Para mejorar la confiabilidad de los resultados de la encuesta, este estudio eliminó elementos con tiempos de respuesta muy cortos para eliminar la posibilidad de que los sujetos completaran el cuestionario sin ver el video. Finalmente se obtuvieron datos de 73 sujetos (45 hombres y 28 mujeres), con una edad promedio de µ=32,8 años y σ2=9,30. Las calificaciones de estos sujetos se analizaron para construir una videoteca para usar en este estudio.
Según los resultados de la encuesta de MTurk y las puntuaciones de valencia promedio, los videos se clasificaron en tres categorías: positivos, neutrales y negativos. Para evitar la duplicación de contenido y garantizar que se cubriera una amplia gama de excitación y dominio, dos investigadores seleccionaron ocho videos de cada grupo.
Equipo de recolección y ambiente experimental.
Investigaciones anteriores han demostrado que el entorno experimental no sólo tiene un impacto significativo en los datos registrados, sino también en el estado psicológico de los sujetos. Por lo tanto, la configuración del laboratorio se mantiene simple y sin distracciones (Figura 1). La luz de la habitación se atenuó para evitar que la luz ambiental afectara negativamente a los rayos infrarrojos. Para reducir los artefactos de movimiento en las señales de EEG, los investigadores equiparon a los sujetos con cómodas sillas con respaldo ajustable. La pantalla de LG tenía un tamaño de 59,5 pulgadas, una frecuencia de actualización de 50/60 Hz y estaba colocada a una distancia cómoda para que los ojos de los sujetos pudieran enfocarse en el centro de la pantalla. Todas las básculas se completan en un iPad de 9,7 pulgadas.
Figura 1. Entorno experimental.
Este estudio recopiló simultáneamente datos de EEG y fNIRS utilizando el hardware g.Nautilus Research. g.Nautilus es un dispositivo EEG inalámbrico que funciona con baterías y está equipado con 16 electrodos húmedos, así como un electrodo de referencia y un electrodo de tierra. El dispositivo adicional de canal g.SENSOR 8 fNIRS consta de 8 transmisores y 2 receptores, que se fijan a la tapa de EEG mediante un soporte magnético. La unidad se ajusta a un sistema de diseño estándar 10/20 y admite tanto la conexión de sonda fNIRS como la colocación flexible de electrodos EEG. La señal de EEG tenía una frecuencia de muestreo de 500 Hz, una sensibilidad de ±187,5 mV y se registró utilizando un filtro de muesca de 50 Hz. Aplique un filtro de paso de banda de 0,01-100 Hz. La frecuencia de muestreo de la señal fNIRS es de 10 Hz y la distancia entre cada transmisor y receptor es de 30 mm. Se utiliza luz infrarroja con longitudes de onda de 785 nm y 850 nm para medir los cambios en la absorción de luz de las moléculas de hemoglobina en el flujo sanguíneo cerebral. El factor de longitud de trayectoria diferencial (DPF) para todos los sujetos fue 6.
Este estudio monitoreó las siguientes regiones del cerebro: corteza prefrontal medial (mPFC), corteza prefrontal dorsolateral (DLPFC), lóbulo parietal inferior, polo frontal, corteza motora suplementaria, giro temporal superior y área de Broca. La Figura 2 muestra las ubicaciones de los electrodos de EEG y la sonda fNIRS, con otras ubicaciones aproximadamente calibradas utilizando el sistema International 10/5. Las ubicaciones aproximadas de los transmisores fNIRS son AF4h, AF3h, F8h, F7h, AFF10h, AFF9h, NFp2 y NFp1; las ubicaciones de los receptores son AF7h y AF8h; Las ubicaciones de los electrodos de EEG son FC3, FC4, FC5, FC6, CP3, CP4, T7, T8, F7, F8, AF5, AF6, F1, F2, FPz y AFz.
Figura 2. Ubicación de los electrodos de EEG (negro) y la sonda fNIRS (azul).
participantes
En este experimento participaron un total de 37 sujetos (17 mujeres y 20 hombres), con un rango de edad de 22 a 44 años (μ=28,97, σ2=5,73). Todos los sujetos tenían visión normal o corregida a normal y no se les diagnosticó ningún trastorno neurológico o psicológico, como trastorno bipolar o depresión. Se pidió a los sujetos que evitaran comer ni beber té o café con cafeína dos horas antes del inicio del experimento. Este estudio se realizó en el Instituto de Bioingeniería de Auckland y fue aprobado por el Comité de Ética de Participantes Humanos de la Universidad de Auckland (UAHPEC). Los datos se anonimizan para que sean accesibles al público.
protocolo experimental
Cada sujeto visitó el laboratorio al comienzo del experimento para familiarizarse con el entorno, y los investigadores dieron una breve introducción al equipo para reducir la ansiedad y reducir el impacto de variables adicionales. A esto le sigue una introducción al procedimiento experimental y una explicación de las escalas del estudio. Después de firmar el formulario de consentimiento informado, se pidió a los sujetos que completaran un cuestionario previo al estudio, que incluía preguntas demográficas (edad, género, lateralidad y lenguaje) y una escala PANAS estándar. PANAS es una escala de autoinforme de 20 ítems que mide emociones positivas y negativas en una escala de 5 puntos. Esta escala se utilizó para evaluar el estado emocional general de los sujetos antes de que comenzara el estudio.
Para reducir el impacto de la densidad y el color del cabello del sujeto en la transmisión de luz infrarroja y las señales de EEG, este estudio utilizó un peine para separar el cabello y limpiarlo en la frente antes de fijar los electrodos al cuero cabelludo. Para garantizar la claridad del audio y garantizar que los sujetos estén aislados del entorno externo, se preparan unos auriculares antes del experimento y se ajusta el volumen adecuado según las necesidades de cada sujeto.
El experimento constaba de tres fases, cada una de las cuales contenía ocho ensayos (Fig. 3). Luego, los 24 vídeos seleccionados se dividieron pseudoaleatoriamente en tres subconjuntos experimentales. A cada vídeo positivo o negativo le siguió un vídeo neutral. En cada prueba, los sujetos vieron un vídeo de 80 segundos y luego tuvieron 35 segundos para evaluar sus emociones. Luego miraron el centro de la pantalla y respiraron profundamente durante 5 segundos para prepararse para la siguiente prueba. Para prevenir la fatiga y la somnolencia, hay un período de descanso de dos a tres minutos entre cada etapa. Después de cada video, se pidió a los sujetos que respondieran cinco preguntas: (I) ¿Está familiarizado con este video? Se evalúan mediante una escala Likert de 5 puntos (1: Nada familiar; 5: Muy familiar (II) a (IV) son preguntas en la escala SAM de 9 puntos (Figura 4); Describe tus sentimientos (felicidad, tristeza, miedo, ira). Los detalles experimentales se muestran en la Tabla 1.
Figura 3. Protocolo experimental.
Figura 4. Evaluación emocional subjetiva de valencia, excitación y dominancia utilizando SAM.
Tabla 1. Resumen de información experimental.
análisis de evaluación subjetiva
Como se mencionó anteriormente, este estudio dividió los videos recopilados en tres categorías (negativos, positivos y neutrales) para provocar una amplia gama de emociones. La Figura 5 muestra las calificaciones de valencia promedio de 37 sujetos para cada categoría de estímulos seleccionados. Mediante la prueba de rangos con signos de Wilcoxon se encontró que existía una diferencia significativa en las puntuaciones de valencia entre estímulos negativos y neutros (p<0,001), y de manera similar, existía una diferencia significativa entre estímulos neutros y positivos (p<0,001).
Figura 5. Calificaciones de valencia de videos negativos, positivos y neutrales.
En todo el conjunto de datos, las calificaciones medias de valencia, excitación y dominancia fueron 5,35 (±2,74), 5,06 (±2,28) y 5,16 (±2,35), respectivamente. La Figura 7 muestra la amplia cobertura de cada estado emocional en cada etapa. Además, según la prueba de rangos con signos de Wilcoxon, las diferencias en las calificaciones de los encuestados de mTurk y los sujetos experimentales en valencia, excitación y dominancia no fueron estadísticamente significativas (porque p>0,05 para todas las dimensiones) (Figura 6). Esto significa que los dos grupos de sujetos respondieron de manera similar al estímulo seleccionado.
Figura 6. Comparación de los rangos de calificación de los encuestados de mTurk y los sujetos experimentales.
Figura 7. Calificaciones promedio de valencia, excitación y dominancia para cada fase.
Para examinar posibles efectos de confusión o signos de fatiga, este estudio exploró las correlaciones medias entre las calificaciones de los sujetos (Tabla 2). Los resultados del estudio encontraron una correlación positiva moderada entre familiaridad y valencia, y una correlación positiva débil entre familiaridad y dominancia. Si bien no se sugirió una relación de causa y efecto, las personas tendieron a tener sentimientos más positivos acerca de los videos más familiares. Además, hubo una correlación positiva significativa entre valencia y dominancia, y una correlación negativa entre valencia y excitación. Sin embargo, estas correlaciones fueron débiles, lo que indica que los sujetos pudieron comprender y diferenciar claramente entre diferentes escalas durante el proceso de puntuación. El orden de los estímulos no se relacionó significativamente con las puntuaciones de valencia, excitación o dominancia, lo que sugiere poca influencia de los efectos de la habituación o la fatiga.
Tabla 2. Correlaciones medias entre calificaciones subjetivas de familiaridad, valencia, excitación, dominancia y orden de presentación. * indica p<0,05.
análisis conjunto
Preprocesamiento de datos
Varias fuentes de ruido pueden interferir con las señales de EEG y fNIRS, complicando la interpretación de los datos. Muchos de los artefactos observados en las señales de EEG, como sudoración, deriva lenta, parpadeo y movimientos oculares, ocurren principalmente en el rango de baja frecuencia (<4 Hz), mientras que otros artefactos, como apretar los dientes y movimientos musculares, ocurren en el rango de frecuencia más alto y más amplio. Aunque las señales fNIRS son más resistentes a los artefactos de movimiento que las señales de EEG, aún pueden verse afectadas por el ruido del instrumento (>3 Hz), ondas Meyer (0,1 Hz), respiración (0,2-0,5 Hz), frecuencia cardíaca (1-1,5 Hz) y interferencia de las fluctuaciones de la presión arterial.
Para reducir el costo computacional, la señal se reduce a 250 Hz. Para el filtrado se utiliza un filtro Butterworth de tercer orden, en el que el rango de filtrado del EEG es [4-80] Hz y el rango de filtrado de fNIRS es [0,0125-0,7] Hz para eliminar el ruido anterior. Los últimos dos segundos del período de descanso de 5 segundos antes de cada estímulo sirvieron como punto de referencia, y el vídeo de 80 segundos se utilizó para el análisis del estado emocional. Se sabe que diferentes métodos de corrección de referencia pueden conducir a resultados diferentes. Aquí, este estudio utiliza la media y la desviación estándar de la línea de base para normalizar los datos experimentales.
Debido a la complejidad y la naturaleza no estacionaria de la dinámica cerebral, seleccionar características específicas para representar señales fisiológicas puede resultar un desafío y, a su vez, afecta la interpretación de los datos. Hay muchas características en los dominios de tiempo, frecuencia y espacio, cada una con sus ventajas. Este estudio utiliza potencia de banda (BP) y entropía diferencial (DE) para representar las características espectrales y las características dinámicas no lineales de las modalidades, las cuales son efectivas en los sistemas de reconocimiento de emociones. Además, este estudio también extrajo el valor medio de los datos fNIRS para proporcionar una perspectiva adicional sobre la dinámica vascular. Para estimar la PA, este estudio adopta el método de Welch (el tamaño de la ventana es 4 s) y calcula el área de la densidad espectral de potencia (PSD) dentro de la banda de frecuencia de interés.
Correlación de datos y puntuaciones neurovasculares
Para determinar si los datos de EEG y fNIRS se correlacionaban con las calificaciones subjetivas, se realizó un análisis de correlación en los 40 segundos centrales de cada prueba. Se utilizó BP para evaluar la correlación de las dos modalidades para proporcionar una comparación directa. Además, se evaluó la correlación de HbO y HbR con las puntuaciones de los sujetos. Este estudio calculó el coeficiente de correlación de Spearman entre la potencia de frecuencia y las calificaciones subjetivas de cada tipo de señal, y calculó el valor p para 37 sujetos, asumiendo independencia entre los datos. Los 37 valores p de Spearman para cada tipo de señal y cada canal se combinaron en un único valor p utilizando el método de Fisher. El nivel de significancia es p<0,05. Los resultados se muestran en la Tabla 3. Se puede observar que en todas las dimensiones del estado emocional, los canales consistentemente significativos se encuentran principalmente en los lóbulos prefrontales (AF5, AFz, F1, Fpz) y los lóbulos temporales (T7, T8). Este resultado es similar a estudios anteriores que utilizaron EEG para el reconocimiento de emociones.
Tabla 3. Correlación promedio entre el optodo fNIRS y el electrodo EEG (p<0,05). (*=p<0,01, ∗*=p<0,001).
Este estudio observó una fuerte correlación entre el título y las señales de EEG en todas las bandas de frecuencia. La potencia de la banda alfa en la región central (CP3) aumentó al aumentar las puntuaciones de valencia. Las señales de excitación y EEG se correlacionaron significativamente en todas las bandas de frecuencia. En particular, este estudio encontró una correlación negativa significativa entre la excitación y la potencia de las bandas theta y alfa en la región PFC. En cuanto a la dominancia, los resultados del presente estudio sugieren que el hemisferio derecho juega un papel más sustancial, como se refleja en los electrodos salientes en las áreas F2, FC6 y T8.
El análisis de las firmas de fNIRS en tres dimensiones reveló correlaciones significativas entre las señales de oxigenación y desoxigenación. Este hallazgo es consistente con el estudio de Bandara et al (2018) de que, además de las señales de oxigenación, las señales de desoxigenación también desempeñan un papel crucial en la distinción de valencia y excitación. Los resultados de este estudio muestran que la señal fNIRS tiene la correlación más fuerte con la puntuación de potencia. Específicamente, la estimulación activa desencadenó un aumento en la potencia de la banda de frecuencia de la señal de oxigenación AFF10h en la región PFC, al tiempo que provocó una disminución en la potencia de la banda de frecuencia de la señal de desoxigenación en las regiones F8h, AF4h y F7h. Además, los niveles de desoxigenación de los canales NFp1 y AF3h mostraron una correlación positiva significativa con la potencia (p<0,01). En cuanto a la excitación, se observó un aumento tanto en la potencia de la banda como en la señal de oxigenación en la posición AFF10h. En términos de dominancia, el nivel promedio de desoxigenación de los canales NFp1 disminuyó.
en conclusión
Este estudio propone la base de datos de emociones fNIRS-EEG (FEAD), que contiene datos neurohemodinámicos de 37 sujetos y puntuaciones del estado afectivo para 24 videoestímulos emocionales. Este estudio utiliza dispositivos portátiles para registrar señales EEG y fNIRS. Este método brinda una oportunidad para la integración de tecnologías y algoritmos informáticos afectivos en diversas aplicaciones, y los resultados del estudio revelan la sensibilidad de las señales EEG y fNIRS a las dimensiones emocionales. Se espera que futuras investigaciones utilicen esta base de datos para explorar y desarrollar nuevos métodos de análisis de datos.
Autores: AF Nia, V. Tang, V. Malyshau, A. Barde, GM Talou y M. Billinghurst, “FEAD: Introducción a la base de datos afectiva fNIRS-EEG - Estímulos de video”, en IEEE Transactions on Affective Computing, doi: 10.1109/TAFFC.2024.3407380.