Tema 3: Experimentación y análisis.

Descripción

Segundo Neuro ii Fichas sobre Tema 3: Experimentación y análisis., creado por Clara 042 el 26/10/2022.
Clara 042
Fichas por Clara 042, actualizado hace más de 1 año
Clara 042
Creado por Clara 042 hace alrededor de 2 años
2
0

Resumen del Recurso

Pregunta Respuesta
¿De qué dos maneras se puede activar el cerebro? Estimulación mediante tareas y estimulación física
¿Qué dos tipos de compatibilidad hay que tener en cuenta entre el estímulo o tarea que presentamos y la señal que vamos a estudiar? Compatibilidad relacionada con el tiempo y compatibilidad relacionada con el espacio
¿Qué es la compatibilidad relacionada con el tiempo? Hay preguntas que se responderán mejor con tareas de un tipo o de otro y estas tareas debido a su duración son compatibles solo con un tipo de señales.
¿Qué tipo de señal se registra y analiza ante un estímulo discreto o puntual? ¿QUé caracteriza a estos estímulos? respuestas fisiológicas o actividad física, cambios fisiológicos breves. Es más fácil controlar su duración. Por ejemplo, un golpe, una fotografía, palabras, sonidos...
¿Qué tipo de señal se registra y analiza ante un estímulo difuso (de actividad tónica)? ¿Qué caracteriza a estos estímulos? Los niveles de actividad fisiológica o actividad fisiológica tónica. SU duración es mucho más difícil de controlar, son más complejos y dentro de ellas puede haber distintas fases. Por ejemplo, una película, una canción, un texto, un test, etc
¿Qué es la compatibilidad relacionada con el espacio? se refiere al espacio o lugar del cerebro. Tiene que ver con qué parte del cerebro esperamos que se vaya a activar o en qué parte del cerebro esperamos que se sitúe el proceso que nos interesa, para esto tendremos que optar necesariamente por las señales cerebrales, ya sean electromagnéticas o hemodinámicas.
Pon un ejemplo en el que sea relevante la compatibilidad espacial de tarea y estímulo y otro en el que no Vamos a suponer que queremos investigar cómo reaccionamos con la visita a un museo. Si lo que nos interesa es la atención, si atendemos más a lo que nos agrada o a lo que nos desagrada, que es un proceso sobre todo cortical, se distribuye mayormente en la corteza. Ahí nos valen todas las señales cerebrales y podemos obtener la información tanto de señales electromagnéticas y hemodinámicas. Por otro lado, si queremos estudiar procesos subcorticales, como la emoción, solo podemos hacerlo a través de señales hemodinámicas.
¿Qué tipo de señales utilizarías para registrar la reacción emocional a una canción? Teniendo en cuenta la compatibilidad temporal y espacial utilizaría actividad fisiológica y señales hemodinámicas porque son las que llegan a esas zonas subcorticales
¿Es recomendable la combinación de técnicas? Pon una combinación que suela funcionar bien Sí, sobre todo las de técnicas electromagnéticas (EEG y MEG) y las de técnicas hemodinámicas funcionales (RMf).
¿Qué dos tipos de diseños son los más frecuentes en neurociencia? Diseño de bloque y diseño de presentación aleatoria/aleatorización de los ensayos
Describe cómo es el diseño de bloques ¿Qué es necesario hacer para que la novedad, práctica o la fatiga afecten por igual a todas las categorías experimentales? todos los estímulos dentro de una misma categoría experimental, por ejemplo, estímulos desagradables, se presentan seguidos, uno detrás de otro. Posteriormente se presentan los estímulos neutros y, por último, los estímulos agradables. Es necesario realizar un contrabalanceo o reequilibrado, es decir, cambiar el orden de los bloques de un participante a otro.
¿Cuáles son las ventajas del diseño de bloque? 1 permite registrar tanto señales puntuales como tónicas 2 es el más adecuado para generar un contexto o un estado afectivo, si, por ejemplo, presentamos varios estímulos desagradables seguidos, vamos a generar un sentimiento de displacer; si, por el contrario, presentamos varios estímulos agradables de forma continua, se generará un sentimiento de placer 3 es interesante para combinar respuestas y niveles, ya podemos registrar los PRAD ante cada foto y, además, tasa cardiaca o el NCP mediante la presentación de un conjunto de estímulos con que pertenezcan a la misma categoría experimental, entendiéndose esto como un estímulo difuso en lugar de varios estímulos discretos 4 potencia algunos procesos afectivos
¿Cuáles son las desventajas del diseño de bloque? los estímulos son predecibles, lo que puede dar lugar a que se produzca habituación de forma más fácil que en otros tipos de diseños. Es más susceptible a la habituación.
¿En qué consiste el diseño de presentación aleatoria / aleatorización de los ensayos? ¿Qué se debe hacer a veces para hacerlo más eficaz? se presentan los estímulos ordenados de manera aleatoria para que el sujeto no prevea lo que va a venir. Seguimos presentando las mismas tres categorías, pero de forma alternada y aleatoria. En algunos casos se suele semialeatorizar para evitar que el azar cree bloques sin querer, es decir, si usamos solo azar puede ocurrir que salga cuatro veces seguidas el mismo estímulo y se crea un bloque sin quererlo, para corregir esto forzamos el azar.
¿Qué desventajas tiene el diseño de presentación aleatoria / aleatorización de los ensayos? solo podemos utilizar señales de tipo respuestas, no hay tiempo para estudiar las variables difusas, por lo que no podemos estudiar los niveles.
¿Para que se suele usar el diseño de presentación aleatoria? ¿Para qué es necesario este diseño? para registrar las respuestas cerebrales relacionadas con acontecimientos discretos: PRAD, CRAD, RMf, y son necesarias para evitar que se generen estados afectivos, que se produzca habituación o que pueda preverse qué tipo de estímulo se presentará a continuación.
¿Qué es una tarea directa e indirecta? Pon ejemplos tareas directas que solicitan al sujeto acciones estrechamente relacionadas con los objetivos de estudio, como pedirle que pulse un botón cuando un cuadro sea bonito, otro cuando sea neutro y otro cuando sea feo tareas indirectas en las que la respuesta que se solicita no tiene que ver con los objetivos de estudio, como pedirle que indique si un cuadro es abstracto o figurativa
¿Qué tipo de tarea se usará para estudiar un proceso automático? ¿Por qué? Tareas indirectas, porque las directas, en estudios sobre emoción, pueden producir un sesgo cognitivo conocido como efecto de relevancia para la tarea que se produce cuando unos estímulos son considerados por el sujeto como más importantes para la tarea que otros
¿Qué tarea suele usarse cuando se desea evitar una respuesta motora a toda costa? ¿Qué desventaja tiene? Tareas pasivas como pedirle que mire a los cuadros sin emitir ninguna respuesta conductual. Que no permiten comprobar si el sujeto ha procesado realmente la estimulación o no.
¿Quién introdujo la estimulación física del cerebro? ¿Qué implica? Implica la estimulación directa del cerebro. Se empezó a hacer en tiempos de Penfield un neurocirujano que introducía electrodos al cerebro, dando pequeñas descargas para estudiar qué hacía el cerebro y qué parte del cuerpo se movía, descubriendo así el homúnculo motor y el homúnculo sensorial
¿Cuál es la forma de estimulación física del del cerebro más relevante a día de hoy? La estimulación magnética transcraneal (EMT)
¿En qué consiste la EMT resonancia magnética transcraneal? ¿Qué nos permite? no tocamos al sujeto, sino que produce campos magnéticos que atraviesan sin distorsiones todo lo que rodea al cerebro (desde el cuero cabelludo, hasta las meninges, pasando por el cráneo), estos campos magnéticos alteran, gracias a la inducción (capacidad para alterar las corrientes eléctricas que pasan por ellos), los potenciales eléctricos de las neuronas, que pueden incrementarse o inhibirse, es decir, podemos detener o incrementar la tasa de la actividad de las neuronas. Nos permite, por tanto, localizar las funciones en la corteza cerebral (procesos lingüísticos, de memoria, de atención, etc.), viendo cómo el sujeto realiza diferentes tareas.
¿Cuál es el estimulador cerebral más empleado? una bobina con forma de 8 (es muy precisa pero no llega a ser tan precisa como la estimulación con electrodos) que se acerca a la zona del cuero cabelludo situada sobre el área cerebral de interés, que estimula toda la sombra que produce la bobina. Este tipo de bobinas permiten focalizar mejor el efecto del campo magnético, puesto que la mayor intensidad se concentra en el punto de intersección de los dos aros del ocho. No obstante, los aros que lo conforman también producen cierta estimulación, por lo que se puede ir moviendo la bobina para hacer que haya un punto en común en el desplazamiento.
¿Cómo estimular de forma directa? ¿Tiene riesgo la bobina que estimula? sí puede tenerlo, ya que puede provocar un proceso, como movimientos muy intensos de los ojos (que puede llevar a que los músculos oculares sufran lesiones), o puede interferir con ellos, como bloquear la producción del lenguaje.
¿Qué tipos de pulsos magnéticos hay y que efectos tienen? Si los pulsos son aislados ? el efecto es momentáneo, de unos segundos, y puede ser útil para conocer en qué fase de un proceso mental interviene la zona estimulada. Si los pulsos son repetitivos (por ejemplo, 60 veces por minutos) ? los efectos son más duraderos, pueden durar minutos e incluso horas, permitiendo aplicar distintas tareas bajo los efectos de la estimulación y definir la función del área estimulada.
¿Qué tipo de tasas de pulsos magnéticos hay? Si la repetición es lenta, la frecuencia es baja (1 pulso por segundo o menos) ? el efecto es inhibidor, esa zona deja de actuar o lo hace de forma más lenta. Si la repetición es rápida (más de 1 pulso por segundo), ? el efecto es activador.
¿Qué ocurre si los pulsos magnéticos son aislados? el efecto es momentáneo, de unos segundos, y puede ser útil para conocer en qué fase de un proceso mental interviene la zona estimulada.
¿Qué ocurre si los pulsos son repetitivos? los efectos son más duraderos, pueden durar minutos e incluso horas, permitiendo aplicar distintas tareas bajo los efectos de la estimulación y definir la función del área estimulada.
¿Qué ocurre si los pulsos son lentos? el efecto es inhibidor, esa zona deja de actuar o lo hace de forma más lenta.
¿Qué ocurre si los pulsos son rápidos? el efecto es activador.
¿Qué debemos hacer con la muestra si queremos generalizar a la población general? La muestra debe tener los casos (por ejemplo, de esquizofrenia) en la misma proporción que en la población general.
¿Qué debemos hacer con la muestra si queremos generalizar a la población sana? debemos hacer una monitorización, detectar a quien tenga patologías y descartarles
¿Qué requisito tiene que tener una muestra para que sea representativa de la población que se quiere estudiar? Que sea representativa, es decir, que tenga todas las características y particularidades de la población a estudiar en la misma proporción que en dicha población
¿Cuál es la forma más fácil de obtener una muestra con proporciones parecidas a la proporción general? seleccionar al azar a un número ideal de personas. Al extraer al azar de la población, lo lógico es que caigan depresivos o esquizofrénicos en la misma proporción que en la población general.
¿Qué tipos de pacientes han sido utilizados numerosas veces en la neuropsicología? ¿Qué se ha conseguido con ello? PAcientes con lesiones cerebrales. Se han ubicado en el cerebro muchas funciones psicológicas
¿Qué hay que introducir para determinar qué es realizar correctamente una tarea? Un grupo control
¿Qué limitaciones tiene el estudio de pacientes con lesiones cerebrales a la hora de localizar funciones en el cerebro? que la zona lesionada no sea en realidad la sede de esa función, sino que sea otra por la que la información pasa a la zona realmente implicada. Por ejemplo, si la información pasa por el fórnix y el fórnix está lesionado, entonces no va a resolver bien la tarea de la memoria, sin embargo, esto no quiere decir que el fórnix sea la sede de la memoria.
¿Qué es un diseño intersujeto? ¿Que desventajas tiene? cada condición experimental se aplica a una muestra diferente. Por ejemplo, en el tema de los cuadros de museos (cuadros agradables, desagradables y neutros), se presentan los cuadros desagradables a un grupo, los agradables a otro grupo y los neutros a otro grupo. Uno de los inconvenientes de este diseño son las diferencias individuales. Por ejemplo, si en un grupo haya alguien que le guste el arte, las diferencias que encontremos entre la actividad que produce cada tipo de cuadro no se deberá exactamente a la categoría a la que pertenecen, sino a estas diferencias individuales. Lo mejor sería siempre evitar este tipo de sujetos, porque habrá un montón de variables extrañas que van a afectar el estudio.
¿Qué es un diseño intrasujeto? ¿Que desventajas tiene? es un diseño en el que las 3 condiciones del estudio se le presenta a las mismas personas, es decir, un mismo sujeto pasa por todas las condiciones experimentales. En estos casos, las variables extrañas se convierten en constantes. Si, por ejemplo, hay un experto en arte, en este tipo de diseño va a pasar por las 3 categorías, lo que hará que esta variable extraña no perjudique los resultados. Lo necesario aquí es intentar igualar las características de todos los grupos, diferencias individuales, género, edad...
¿Qué es el poder estadístico? la probabilidad de que el analisis que realicemos sobre los resultados obtenidos en la muestra seleccionada rechace la hipótesis nula cuando esta sea falsa en la población, es decir, la probabilidad de que nuestros análisis acierten. Es una probabilidad que va de 0 a 1, y es importante que sea lo más alto posible, aunque también debe ser realista; un poder estadístico de 1 suele requerir tamaños muestrales difíciles de alcanzar. Normalmente se buscan tamaños muestrales de 0,7 o 0,8.
¿Qué tamaño de muestra hay que seleccionar? Tenemos que seleccionar una muestra que tenga un tamaño que de lugar a un poder estadístico lo más grande posible, ya que en general, las muestras pequeñas cuentan con peor poder estadístico que las muestras grandes. Existen fórmulas para calcular cuántos sujetos necesitas para tener un poder estadístico significativo
¿Cuáles son las dos fases para analizar e interpretar los resultados de un estudio? Cuantificación y contraste estadístico e interpretación
¿qué es la cuantificación? Cuando la señal ha sido registrada y archivada, debe extraerse de ella el parámetro más informativo. Se llama también reducción de datos, porque consiste en resumir el registro en un único parámetro.
¿Cuáles son los 6 parámetros que hemos estudiado en la cuantificación? Amplitud, latencia, frecuencia, distribución topográfica (2D), localización de fuentes (3D) y conectividad funcional
¿Qué es la amplitud? La amplitud es la magnitud o intensidad de una señal. Cuanto mayor es la amplitud de una señal, mayor será la intensidad con la que el proceso se esté activando. Puede tener distintas unidades de medida según la señal que estemos registrando. Si estamos registrando la actividad magnética, se mide en teslas; si estamos registrando la actividad eléctrica, se mide en voltios; si hacemos una resonancia, se mide en beta.
¿Cuál es el método tradicional de cuantificación de la amplitud? ¿Desventaja? La señal suele presentarse en un gráfico de coordenadas en el que el eje de ordenadas (Y) se refleja la unidad de medida correspondiente, y en el de abscisas (X) el tiempo. Representándolo de esta manera, la amplitud es la medida vertical. Lo primero que tenemos que hacer es marcar una ventana de interés, seleccionar sólo lo que nos interesa del registro. Esto se marca teniendo en cuenta qué significa cada onda y sabiendo lo que queremos estudiar. Para medir cada ventana de interés, partimos desde la línea de 0 voltios hasta el pico más alto, o más bajo si es negativo, de esa onda. Cuando los picos no están muy definidos, se calcula la amplitud media, que es la media aritmética de la amplitud de todos los puntos que forman la ventana de interés, es decir, calculamos la amplitud de cada punto y luego sacamos la media. Esto suele ocurrir en componentes tardíos como los PRAD o CRAD.
¿Cuál es la desventaja del método tradicional de cuantificación de la amplitud? El principal problema de este método es que la señal registrada en un momento dado representa la superposición compleja de procesos neurales producidos en momentos diferentes. Esto puede complicar la medición de las amplitudes debido a que las ondas o componentes de la señal no reflejan necesariamente la actividad en un momento determinado. Por lo tanto, lo que vemos en el registro puede no ser la actividad real, sino que la estamos malinterpretando.
¿Qué es el análisis de componentes principales temporal? ACPt Suele aplicarse a las señales cerebrales más que a las periféricas y, principalmente, a las electromagnéticas. Este método descompone la señal registrada extrayendo los factores o componentes que la forman, determinando las covarianzas entre los puntos temporales que forman el registro. Los puntos que covarían forman parte de un mismo factor o componente temporal. Básicamente este método corrige los problemas del método tradicional, ya que allí se solapan varios componentes que el ACPt permite descomponer.
¿QUé es la latencia? ¿Qué tipo de medida es? ¿Cuál es su unidad de mediad? ¿Qué otro nombre recibe? ¿qué se hace para cuantificarla? Es el tiempo que transcurre entre la presentación del estímulo y la producción de un cambio eléctrico o la respuesta del sujeto Temporal Segundo Tiempo de reacción Se identifica el inicio de la respuesta, El tiempo se mide en el eje horizontal, tomamos el punto máximo y hasta ahí medimos la latencia
¿Qué hacer si no logramos identificar el inicio de la respuesta al medir la latencia? ¿Cuál es el inconveniente de medir respecto al pico? a veces el inicio no es fácil de ver porque puede ser muy gradual, y no se ve muy claro en qué momento empieza realmente. Puede ocurrir también que hubiese una respuesta previa, pero la que realmente nos interesa es la segunda (pasa a veces con los PRAD). En estos casos, en los que el inicio de la respuesta no es fácil de determinar, se mide respecto al pico, al punto máximo de la respuesta. El inconveniente de medir respecto al pico es que, midiendo hasta ahí, la latencia depende de la amplitud, lo que quiere decir que, si el pico es mayor, la latencia llega más tarde, y si es menor, la latencia llega antes.
¿De qué informa la latencia? Podríamos mediar la latencia por ejemplo en el nivel de conductancia de la piel? La latencia informa sobre el momento en el que aparece un proceso mental y permite caracterizar temporalmente toda la secuencia de procesos que se activan ante la presentación de un estímulo. No, solo puede medirse en señales que reflejen respuestas a estímulos puntuales, como PRAD O CRAD. No es medible en señales que reflejen niveles, como el nivel de conductancia de la piel.
¿Qué es la frecuencia? ¿Puede medirse en señales hemodinámicas? Es otra medida temporal. La frecuencia de una señal es el número de ciclos por unidad de tiempo, normalmente es por segundos, y cada número de ciclos se llama hercios (Hz). Sí, pero se cuantifica principalmente en las señales electromagnéticas cíclicas, que presentan constantemente una actividad oscilatoria, tanto centrales como periféricas, como la actividad cerebral espontánea o el EEG.
¿Qué significa una mayor frecuencia? ¿Cuál es el problema de contar el nº de ciclos? ¿Y qué métodos automáticos y digitales se usan para solucionarlo (el más conocido)? Una mayor frecuencia implica un mayor nivel de actividad del sistema fisiológico registrado. Que se pierde muchísimo tiempo y se suelen cometer errores la transformada de Fourier (TF)
Describe la transformada de Fourier Este método parte de la base de que cualquier señal, por compleja que sea, está formada por ondas simples, sinusoides o senoides sencillos, con una frecuencia única cada uno de ellos. Lo primero que hace la transformada de Fourier es buscar qué ondas básicas conforman la señal. Después de descomponer la ondea en sus ciclos básicos, proporciona un espectrograma, que es un gráfico en el que en el eje horizontal tenemos Hz y, en el eje vertical, la amplitud. En el espectrograma se representa la frecuencia que tienen los constituyentes básicos de la señal, informa qué frecuencias están incluidas en la señal registrada y cuáles de ellas dominan.
¿Qué es un espectograma? un gráfico en el que en el eje horizontal tenemos Hz y, en el eje vertical, la amplitud
Es habitual que haya una densidad alta en 0,5 Hz, se conoce como beta. v o f f se conoce como delta
¿Qué indica la transformada de Fourier? indica cuál es la frecuencia dominante de cada intervalo, pero las frecuencias de los intervalos van cambiando. En estos casos hay que hacer un análisis de tiempo frecuencia, que es analizar cómo cambia la frecuencia a lo largo del tiempo.
¿Qué es la cuantificación de un análisis de tiempo frecuencia? Nombra uno analizar cómo cambia la frecuencia a lo largo del tiempo. transformada corta de Fourier, que es aplicar la transformada de Fourier a ventanas cortas y no a todo el registro. El único requisito para esto es que todas las ventanas sean iguales, sino no es fiable.
¿QUé ocurre cuando aplicamos la transformada corta de fourier a ventanas cortas? ¿Y si hacemos pocas ventanas largas? Cuando hacemos muchas muy cortas, hay una ventaja que es que aumentamos la resolución temporal, es decir, vemos muy bien cómo cambia la frecuencia a lo largo del tiempo, pero perdemos resolución espectral, significa que hay frecuencias que no vamos a poder calcular. Por ejemplo, si hay una frecuencia lenta en una ventana corta, no se va a detectar porque se convierten en rectas y dejan de ser ondas. Si, por el contrario, se divide la señal en pocas ventanas largas, aumenta la resolución espectral, pero disminuye la resolución temporal, no se detectarán los cambios más rápidos de frecuencias.
Nombra otro análisis de tiempo frecuencia ¿Es la más frecuente? ¿Por qué? la transformada ondular (wavelet transform) Sí, porque es más flexible, no tiene la obligación de que las ventanas sean todas iguales.
¿En qué consiste la cuantificación de la la transformada ondular? analizar cómo se ajusta la señal a las distintas ondulas con frecuencias y fases diferentes y preestablecidas, es decir, una especie de patrón o dibujo que se define a priori. el patrón más común es la ondula Morlet. Este método toma el patrón (ondula madre), que como se ha diseñado a priori sabemos qué frecuencia tiene, y lo superpone en la señal que hemos registrado y vemos donde encaja mejor. a partir de esa ondula madre fabricamos ondulas hijas, que son modificaciones de la madre. Las hijas van a ir encajando en distintas partes de la señal. Como sabemos la frecuencia de las ondulas, las vamos poniendo encima de la señal que tenemos, y donde encajen perfectamente, sabremos que la frecuencia de ese trozo será la frecuencia de las ondulas. En este método podemos manipular el número de ciclos que tienen la madre y las hijas, todas han de tener el mismo número de ciclos, normalmente son 7, aunque podemos elegir ondulas con más ciclos o con menos ciclos.
Ventajas e inconvenientes de la transformada ondular más ciclos dan más resolución espectral, pero menos resolución temporal; mientras que menos ciclos, tendrían muy buena resolución temporal, pero reduce la resolución espectral, porque con ventanas tan pequeñas no podemos ver los cambios lentos en las ondas.
¿En qué consiste la cuantificación de la distribución topográfica? en representar en un mapa de la superficie de la cabeza qué amplitud o frecuencia presenta cada punto del cuero cabelludo en un momento dado, se representa en 2D
¿A qué técnicas se aplica la distribución topográfica? A las técnicas electromagnéticas (EEG y MEG)
¿Para qué es útil la distribución topográfica? Para analizar si la distribución topográfica varía de una condición experimental a otra, cada condición podría activar de forma diferente el cerebro
Un foco en la zona parietal del cerebro implica que el origen de una actividad se sitúa en la corteza parietal v o f falso, no necesariamente. Es una técnica en 2d el origen puede ser más profundo
¿Qué es la interpolación? ¿En qué técnica hemos visto que puede ocurrir? Las zonas del cuello en las que no hay electrodos también aparecen coloreadas porque los voltajes en ellas se deducen a partir de los detectados en electrodos cercanos
¿Cuál es el método tradicional de distribución topográfica? Consiste en representar la amplitud o frecuencia registrada por cada electrodo o sensor MEG con diferentes colores o tonos de gris que recuerdan a los mapas topográficos
¿Qué puede ocurrir en un mapa de distribución topográfica cuando hay un foco de actividad muy intenso? ¿Cuál es la solución? Que enmascare otros más débiles y menos extensos. Se usa el Análisis de Componentes Principales espacial (ACPe) que separa los componentes del PRAD a lo largo del espacio
¿Cuál es el equivalente al ACPe en cuanto al tiempo? ¿Qué significan sus siglas? El ACPt análisis de componentes principales espaciales y temporales
¿Cuál es el parámetro de la salida del análisis de la distribución topográfica mediante ACPe? ¿Qué refleja? Puntuación factorial espacial, refleja la amplitud limpia de todo el factor espacial
¿Se suele usar el ACPe por si solo? No, se suele realizar una estrrategia conocida como ACP temporoespacial. Se realiza primero un ACPt para delimitar y cuantificar los componentes temporales del PRAD y sobre cad auno de ellos se computa un ACPe lo que permite conocer la distribución topográfica de cada factor temporal.
¿Qué es el ACP temporoespacial? Una estrategia en la que se realiza primero un ACPt para delimitar y cuantificar los componentes temporales del PRAD y sobre cad auno de ellos se computa un ACPe lo que permite conocer la distribución topográfica de cada factor temporal.
¿Para qué sirve el ICA? ¿Qué significan sus siglas? Para la extracción de componentes temporales y espaciales de los registros de EEG; MEG y RMf (análisis de componentes independientes)
¿Cuáles son las diferencias entre el ICA y el ACP? El ICA efectúa el análisis espacio temporal en un único paso. Mientras que el ACP extrae los factores que más varianza explican, el ICA extrae factores atendiendo a su independencia estadística (favoreciendo los que tienen una baja correlación con otros factores por lo que el acp es más parsimonioso ya que extrae menos factores
¿Qué errores opuestos pueden cometer el ICA y el ACP? EL ACP aunque más parsimonioso puede llegar a fundir en un solo factor procesos independientes y el ICA separar procesos que no lo son.
¿Para qué es frecuente que se use el ICA? Para identificar y extraer interferencias como parpadeos o movimientos oculares
¿Qué es la localización de fuentes? ¿QUé otro nombre recibe? Se llama también resolución del problema inverso (la señal se rastrea del cuero cabelludo al cerebro) Se trata de obtener información 3D
LA aplicación de localización de fuentes se aplica tanto a técnicas electromagnéticas como hemodinámicas v o f falso, a hemodinámicas no, porque ya estñan en 3D
El problema inverso tiene varias soluciones v o f ¿por qué? ¿Qué papel tiene por lo tanto la localización de fuentes? v Porque la actividad registrada en la superficie puede explicarse a partir de patrones de actividad cerebral muy diferentes Se encarga de discernir cuál es la más probable
¿Qué dos métodos de localización de fuentes existen según el tipo de criterio que usen para descartar soluciones? Modelos dipolares o paramétricos y modelos distribuidos o no paramétricos
¿Qué modelo de distribución de fuentes es no paramétrico? Modelo distribuido
¿Qué modelo de distribución de fuentes es paramétrico? Modelo dipolar
¿Qué son los modelos dipolares? ¿En qué nos basamos para escoger el criterio? Métodos que limitan el número de soluciones de la localización de fuentes de forma numérica (por ej no se aceptará una solución que tenga más de 3 focos). Nos basamos en el tipo de proceso que estemos estudiando (por ej en percepción visual es fácil que sea solo 1 pero en atención habrá más áreas) pero no tiene porq cumplirse siempre también se puede basar en investigaciones previas con resonancias (método hemodinámico) pero la RMf muestra focos que no podrán reflejarse nunca en una EEG/MEG como los campos cerrados y al revés en el caso de la actividad de corta duración) También puede utilizarse un método factorial como en MUSIC
¿Cuáles son los modelos dipolares o paramétricos? B.E.S.A (Brain Electric Source Analysis) M.U.S.I.C (Multiple Signal Classification)
¿Cuál es el criterio de los modelos distribuidos o no paramétricos? El límite o el criterio no es el número, porque se considera arriesgado, sino que el límite es fisiológico. Por ejemplo, uno de los criterios que utilizan es descartar todas las soluciones que no se produzcan en la sustancia gris. La lógica de esto es que la actividad relevante se produce en los cuerpos celulares, ya que los axones no procesan información, sino que solo la transmiten, y como son los cuerpos celulares los que forman la sustancia gris, se podría estudiar sobre ella.
¿ Norma mínima (N. M) L.O.R.E.T.A
¿Cómo es el método de la Norma Mínima (NM)? Acepta las soluciones que tengan la configuración con menor número de focos. Esto se debe a que el cerebro es parsimonioso, es decir, el cerebro optará por la opción que menos gasto energético genere. El problema de esto es no siempre es verdad, puede ocurrir que un proceso active dos focos, pero este método lo descartará. Ni siquiera está claro que sea más gasto energético dos pequeños focos que uno grande. Este ha sido el método base de los de este grupo. Escogerá la solución que refleje activaciones más débiles y en el menor nº de vóxeles posible tiende a favorecer soluciones superficiales sobre profundas
¿Cómo es el método L.O.R.E.T.A (Low Resolution Electromagnetic Tomography)? Es gratuito y sus criterios de selección parecen bastante plausibles, por lo que es el que más se usa. Su criterio es que una neurona raramente se activa de forma aislada, lo normal es que cuando una neurona se activa, sus vecinas también lo hagan porque las neuronas interactúan entre ellas, favoreciendo las soluciones en las que hay un foco relativamente amplio, que recoge muchas neuronas vecinas, sobre las soluciones muy puntuales o pequeñas.
¿Cómo es el método L.A.U.R.A (Local Autorregresive Average)? Su criterio se basa en la pérdida de intensidad de la actividad producida por un vóxel a medida que aumenta su distancia al cuero cabelludo, y favorece las soluciones que se ajustan a dicha pérdida. Corrige el sesgo de superficie del método de Norma Mínima.
¿Cómo es el método de aprocimación bayesiana? Consiste en darle mayor peso a unos vóxeles (equivalente al pixel, pero en 3 dimensiones, son cubos), favoreciendo las soluciones que incluyen a vóxel es con mucho valor y peso. Los pesos se dan a través de estudios previos de resonancia que estudian algo parecido.
¿Qué es un vóxel? Cada uno de los cuadrados de una rejilla tridimensional con la forma del cerebro que se usa en la localización de fuentes. También se pueden llamar dipolos
¿Cuál es el método mixto? El beamforming, Se utiliza casi tanto como L.O.R.E.T.A. y sobre todo en MEG Detecta la tardanza de la llegada del foco real a cada electrodo.
¿Qué es el método de conectividad funcional? determinar qué áreas del cerebro cooperan en una tarea determinada o en respuesta a un estímulo. Es muy habitual que un estimulo active varias zonas a la vez, porque el cerebro funciona mucho en paralelo, es decir, hay procesos en marcha de forma simultánea. No debe confundirse con conectividad estructural. Lo que hay que ver es cuáles son las áreas que se activan y con qué intensidad lo hacen. Para ver si está asociada una activación frontal con una parietal, se realiza una correlación tradicional. Si hay una correlación alta, se deduce que las dos zonas están trabajando al unísono, aunque estén distantes.
¿Cuál es el problema del método dde conectividad funcional? ¿Cuál es la solución? a veces, el procesamiento no es paralelo, sino que puede ser serial o parcialmente serial, es decir, que van uno detrás de otro. Por lo que puede ocurrir que dos zonas cooperen, pero que no se activen simultáneamente, con lo que la correlación tradicional no funcionaría. En estos casos, lo que se utiliza para detectar esta correlación un poco desplazada es una correlación cruzada, que permite calcular correlaciones que no son simultáneas y tienen en cuenta posibles desfases. Por ejemplo, si un proceso causa otro, están relacionados pero se suceden uno detrás de otro (análisis de causalidad de Granger)
¿Qué es lo que ocurre con más frecuencia en los análisis de conectividad funcional? ¿Cómo se denomina? ¿Con qué técnicas se utiliza? que las cooperaciones entre zonas se traducen más que en amplitudes similares, en frecuencias, es decir, cuando dos zonas cooperan se produce una coordinación de frecuencias, puede que el número de ciclos por segundos se acople o se haga similar en una zona y otra, por ejemplo, la frontal y la parietal, esto se llama ANÁLISIS DE COHERENCIA. Se utiliza sobre todo con eeg y meg, porque la coherencia se calcula entre electrodos o sensores.
¿Cómo funcionan las técnicas factoriales en la conectividad funcional? SOn multivariadas, todos los electrodos o vóxeles se introducen a la vez en el análisis, se encargan de asociar a aquellos voxéles que tienden a covariar.
¿Qué dos estrategias de análisis hay? ¿Qué o cuál es la mejor? Estrategia de análisis agrupada vs. continua Lo mejor es combinar
¿Qué es la estrategia de análisis agrupada? Pon un ejemplo con los cuadros (positivo, negativo, neutro) Se comparan niveles discretos de la variable independiente, es decir, agrupamos todas las reacciones a un mismo tipo de estímulo y van a funcionar como uno solo, un grupo homogéneo. Por ejemplo, cada uno de los grupos de cuadros (muy agradables, agradabilidad media o poco agradables), se evaluará en conjunto, de forma que los análisis contrastarán diferencias entre tres tipos de cuadros. Para comparar la Variable Dependiente en una estrategia agrupada hay dos técnicas típicas, T de Student, para cuando hay dos niveles, y ANOVA para cuando hay más de dos niveles. Es la más habitual, se emplea en el 90% de estudios en psicología y en las neurociencias humanas.
¿Qué es la estrategia de análisis continua? No se separa ninguna reacción a ningún estímulo, cada estímulo funciona de manera independiente. Tendríamos cómo reacciona el sujeto a cada uno de los estímulos. En las agrupadas asumimos que, por ejemplo, los cuadros que consideramos atractivos lo serán para todos los sujetos, cuando es probable que no sea así. Los grupos se elaboran bajo el criterio del investigador, aunque también se deben recurrir a encuestas, para asegurarnos de que la mayoría opina lo mismo sobre cada cuadro. Sin embargo, puede ocurrir que uno de los participantes no considere algún estímulo desagradable como tal, sino que le agrade. En estos casos sería más factible utilizar la estrategia continua, donde se evalúan a los sujetos de forma individual, sin embargo, es más complejo. Para medir la relación entre la VD y VI se utilizan correlaciones (Pearson, Spearman…), regresión lineal...
¿Qué tipos de contraste puede haber? Contrastes paramétricos y no paramétricos
¿Qué son los contrastes paramétricos? ¿Cuáles son las pruebas más utilizadas? Son los que se utilizan en la mayoría de los estudios, porque son más económicos en términos de n, de tamaño de la muestra, ya que requiere menos sujetos para obtener resultados fiables que unos no paramétricos. Sin embargo, muchas veces se utilizan mal (sobreutilizan), porque tienen un requisito importante, que es que la distribución de los datos tiene que ser Normal, si la distribución no es Normal, los resultados de estos análisis no son fiables y se pierde en validez. Muchas veces ocurre que la distribución es normal, pero hay algún caso, caso marginal, que tiene una puntuación muy distinta al resto. La distribución es más o menos compacta, pero hay un individuo con una puntuación extrema. Cuando se utiliza un contraste estadístico paramétrico, se elimina a este individuo del análisis. Las pruebas más empleadas son la t de Student y las ANOVAs.
¿Si la muestra no se distribuye según las distribución normal qué tipo de contraste es mejor usar? No paramétrico
¿Cuál es el tipo de contraste más frecuente? El contraste paramétrico aunque se sobre utiliza a veces dando resultados poco fiables si la muestra no se distribuye según la normal o hay muchos participantes con valores extremos (son eliminados directamente)
¿Qué desventajas tiene el contrate no paramétrico? Es más difícil alcanzar un poder estadístico similar al de las paramétricas, la muestra tiene que ser más grande
¿Qué ventajas tiene el contraste no paramétrico? Son más versátiles y robustas y pueden aplicarse a cualquier tipo de datos.
Asocia a estos análisis paramétricos su gemelo no paramétrico ANOVA T de Student Correlación de Pearson Regresión lineal ANOVA → Friedman T de Student → Wilcoxon Correlación de Pearson → correlación de Spearman Regresión lineal → regresión no paramétrica
¿Qué dos tipos de modelos hay? Univariados y multivariados
¿Qué son los modelos univariados? Por ejemplo, en un estudio de resonancia tenemos el cerebro dividido en vóxeles. En esta estrategia se compara el mismo vóxel, solo uno, en una condición experimental frente a otra. Por ejemplo, cogemos un vóxel de la condición de cuadros agradables y lo comparamos con el mismo vóxel de la condición de cuadros negativos. En cada análisis solo entra un vóxel, pero se pueden hacer muchos análisis. En una resonancia hay por lo menos 100.000 vóxeles. El problema de esto es que son muchos contrastes los que habría que hacer.
¿Qué son los modelos multivariados? En este modelo se comparan vóxeles distintos en una misma condición, por ejemplo, un vóxel de la condición de cuadros agradables con otro vóxel de la misma condición. Es un análisis de dos factores, que permite ver cómo se asocian los vóxeles. Pero esto no cabe en los ordenadores, por lo que la mayoría de los contrastes son univariados. Como perdemos información, hay estrategias que reducen el número de vóxeles para poder hacer el análisis multivariado.
Describe una estrategia para reducir el número de voxeles y conseguir que no se pierda información en el análisis Se puede aplicar, por ejemplo, un análisis de componentes principales (ACP), que une en vóxeles grandes todos los vóxeles individuales que covaríen, haciendo que funcionen como un vóxel único. Si reducimos los 100.000 vóxeles a 7 u 8 que expliquen todo el funcionamiento, podríamos hacer el modelo multivariado, haciendo que haya, por ejemplo, 7 vóxeles x 3 condiciones (positivo, neutro o negativo).
¿Cuál es el problema de las comparaciones múltiples en el estudio de la mente? En la mayoría de los experimentos de Psicología, el umbral de significación (α) suele establecerse en 0,05. Es decir, se considera que existe un efecto significativo del tratamiento experimental sobre la señal registrada si el resultado del análisis estadístico correspondiente arroja una probabilidad p < 0,05. Pueden producirse falsos positivos en los vóxeles. Las RMf se suelen analizar con estrategias univariadas: 100.000 comparaciones. Normalmente, utilizamos un umbral para descartar los resultados improbables (α = 0,05). Si p < 0,05, un 5% de los contrastes que hagamos serán falsos positivos (rechazar la H0 cuando es correcta). Eso es aceptable. Pero, cuando se hacen 100.000 ANOVAs, un 5% son 5.000 vóxeles que pueden dar falsos positivos. Por eso, α = 0,05 no sirve
¿Cuáles son las soluciones al problema de la comparación múltiple en el estudio de la mente? Utilizar procedimientos de corrección Tasa de hallazgo falso (FDR) Establecer un conglomerado (cluster) mínimo de vóxeles significativos Analizar pequeñas regiones del cerebro Usar análisis no paramétricos:
¿En qué consiste la solución de Utilizar procedimientos de corrección? como reducir α = 0,001, pero sigue dando 100 vóxeles de posibles falsos positivos.
¿En qué consiste la solución de tasa de hallazgo falso? Umbral más estricto. Establecer un FDR en 0,05 implica que solo un 5% de los vóxeles significativos serán falsos positivos en lugar de un 5% del total de Vóxeles
Establecer un conglomerado (cluster) mínimo de vóxeles significativos. Por ejemplo, considerar como significativos solo los conglomerados de 10 o más vóxeles significativos, asumiendo que las activaciones reales afectarán a grupos contiguos de vóxeles y que la activación de vóxeles aislados será “ruido estadístico” (algo que no siempre es cierto).
Analizar pequeñas regiones del cerebro en lugar del cerebro completo, lo que reduce el número de vóxeles. Así, α tendrá menos efecto. Esas regiones de interés (ROI) pueden establecerse a priori, por los objetivos del experimento (por ejemplo, la formación hipocampal en un estudio sobre memoria) o a posteriori, en función de qué partes del cerebro muestren efectos significativos en contrastes estadísticos preliminares de todo el cerebro.
Usar análisis no paramétricos Neutraliza el efecto de las comparaciones múltiples y no requiere que los valores de cada variable dependiente (la activación de cada vóxel) cuenten con una distribución normal. Este método resulta especialmente recomendable para los estudios 3D.
¿A qué tipo de cuantificación corresponde esta imagen? ¿Qué se está midiendo? Amplitud, en la primera de la línea de transferencia al pico y en la segunda se ha medido la amplitud media
¿A qué tipo de cuantificación corresponde esta imagen? ¿Qué se está midiendo? Es un análisis de componentes principales temporal
¿A qué tipo de cuantificación corresponde esta imagen? ¿Qué se está midiendo? Latencia
¿Qué es a, b y c? A es la señal original registrada B son las ondas en las que se puede descomponer mediante la transformada de Fourier C es el espectrograma que proporciona la TF
¿Qué es a, b y c? ¿Qué se está intentando conseguir? a es el espectrograma original en b se ha troceado en 2 ventanas y la segunda a su vez en 3, tiene buena resolución espectral (registral todas las frecuencias) pero mala temporal (no registra bien los cambios de frecuencias) EN c se han hecho ventanas más cortas (hay más resolución temporal y menos espectral) Están haciendo un análisis de tiempo-frecuencia
¿Qué método representa la imagen? Nombra ca, b y c La transformada óndula (wavelet) a) EEG original b) familia de óndulas de 5 ciclos creadas a partir de la madre (m) (existen otras formas de óndulas madre) c) la óndula hija marcada en negro es la que mejor encaja en el EEG
¿Qué método es el de la imagen? Distribución tipográfica
¿Qué representa la imagen? Una distribución topográfica a la que se le ha aplicado primero una ACPt y luego una ACPe para revelar los tres focos de actividad que el mapa de voltaje original no revela
¿Qué representa la imagen? Conectividad funcional
¿Qué tipo de estrategia es cada una de las imagenes? a estrategia agrupada b estrategia continua
¿Qué tipo de contraste se usaría con estos datos? Contraste paramétrico
¿Qué tipo de contraste se usaría con estos datos? Contraste no paramétrico
Mostrar resumen completo Ocultar resumen completo

Similar

Resumen sobre Los Reyes Católicos
maya velasquez
PROCESADORES DE TEXTO
rm-asociados
antonimos I
Kioshi Gonzales
Cómo Escribir texto en inglés
maya velasquez
Test de historia de España S. XVIII, XIX y XX.
Diego Santos
MAPAS CONCEPTUALES DIGITALES
carolinaordonezm
TEJIDO EPITELIAL
Juan José Fierro
AMBIENTES VIRTUALES DE APRENDIZAJE (AVA)
naansara1993
PENSAMIENTO CRÍTICO
carandpoveda
English Vocabulary: Money
Diego Santos
Ejemplo incompleto mapa conceptual Parte de las Plantas
Giglia Gómez Villouta