La información

Descripción

Mapa mental realizado por Maria Catalina Herrera y Luisa Sabogal.
Maria Catalina Herrera
Mapa Mental por Maria Catalina Herrera, actualizado hace más de 1 año
Maria Catalina Herrera
Creado por Maria Catalina Herrera hace más de 4 años
5
0

Resumen del Recurso

La información

Nota:

  • Hecho por Maria Catalina Herrera y Luisa Sabogal
  1. Las investigaciones lingüísticas recientes han sugerido la idea de que puede obtenerse información por medio de disyuntivas binarias.
    1. Todos los signos (palabras) de una lengua se construyen por medio de la combinación de uno o más fonemas.
      1. Los fonemas son la unidad mínima de emisión vocal con carácter diferenciado.
        1. En inglés, las dos maneras distintas de pronunciar la "i" de "ship" y la de "sheep", constituyen precisamente una oposición entre dos fonemas distintos (y por ello, en el primer caso tenemos el significado de "nave" y en el segundo "oveja".
        2. La presencia de un fonema excluye la de otro que, de haber aparecido un lugar del primero, habría cambiado la significación de la palabra.
          1. En castellano, puedo pronunciar de manera distinta la "e" de "cena" y la de "mesa", pero la diferencia de pronunciación no implica una oposición fonemática.
      2. El valor de "información" no se identifica con la noción que nos es comunicada, puesto que en la teoría de la información, lo que nos es comunicado no tiene importancia.
        1. Lo que realmente es importante es el número de alternativas necesarias para definir el acontecimiento sin ambigüedades.
          1. Un mensaje de un bit (dos posibilidades) y otro de tres bit (ocho posibilidades), se distingue precisamente por el mayor número de alternativas que en su origen ofrece el segundo en comparación con el primero.
            1. La información, por lo tanto, nos da la medida de una situación de igualdad de probabilidades, de una distribución estadística que existe en el origen.
              1. Los teóricos de la información llaman a este valor estadístico entropía, por su analogía con la termodinámica.
                1. La entropía de un sistema es el estado de equiprobabilidad a que tienden sus elementos.
                  1. La entropía se identifica con un estado de desorden, en el sentido que un orden es un sistema de probabilidades que se introduce en el sistema, para poder prever su evolución.
              2. La información consiste más en lo que puede decirse que en lo que se dice. Es la medida de una posibilidad de selección en la elección de un mensaje.
                1. La información representa la libertad de elección de que se dispone al construir un mensaje, y por lo tanto, debe considerarse una propiedad estadística de los mensajes en su origen.
              3. Cuando, entre dos acontecimientos, sabemos cuál se producirá, tenemos una información.
                1. La probabilidad es la relación entre el número de casos favorables a la realización del acontecimiento y el número de casos posibles.
                  1. La relación entre una serie de acontecimientos y la serie de probabilidades correspondientes, es la relación entre una progresión aritmética y otra geométrica y la segunda serie representa el logaritmo de la primera.
                    1. En la teoría de la información se llama unidad de información, o bit (de binary digit o "señal binaria"), a la unidad de disyunción binaria que sirve para individualizar una alternativa.
                        1. Por el método de disyunción binaria es posible individualizar una eventualidad entre un número infinito de posibilidades.
                    1. Cuando se introduce un código se limitan las posibilidades de combinación de los elementos en juego y el número de los que constituyen el repertorio.
                      1. La información de origen disminuye y la posibilidad de transmitir mensajes aumenta.
                        1. Con sus criterios de orden, el código facilita estas posibilidades de comunicación.
                          1. El código viene a ser un sistema de posibilidades superpuesto a la igualdad de probabilidades del sistema en su origen, para facilitar su dominio comunicativo.
                          2. Para que la transmisión sea posible, para que puedan ser elaborados los mensajes, los valores N y h han de ser reducidos.
                            1. La existencia del código, permitiendo incluso diversas especies de combinaciones, limita enormemente el número de las elecciones posibles.
                          3. Shannon, define la información de un mensaje que implica N selecciones entre h símbolos.
                          4. Hecho por María Catalina Herrera y Luisa Sabogal
                            Mostrar resumen completo Ocultar resumen completo

                            Similar

                            Principios de Psicología
                            anrago63
                            Psicología Sistémica
                            Ricardo Alonso Varela Omodeo
                            PSICOLOGÍA DEL DISEÑO
                            Brisia Montes Mendez
                            Psicología Sistémica
                            Diego Santos
                            Historia de la psicología
                            Christian Camilo CORTES AGUILAR
                            Trastrono de Estrés Postraumático
                            Beatriz de Carmen Rosales López
                            Psicología del color
                            malumabl
                            roles y perfiles del psicologo
                            yuleidys henriquez martinez
                            Elementos de la Inteligencia Emocional
                            Fernando Durán Z.
                            MAPA CONCEPTUAL - Enfoques de Investigación
                            Gabriel Iván Parra Rosero
                            Psicología Deportiva
                            luigi goterelli