«Se propone la noción de entropía de grupo. Permite la unificación y generalización de muchas definiciones diferentes de entropía conocidas en la literatura, como las de Boltzmann-Gibbs, Tsallis, Abe y Kaniadakis. Se introducen otros funcionales entrópicos, relacionados con leyes de correlación no triviales que caracterizan clases de universalidad de sistemas fuera de equilibrio cuando la dinámica es débilmente caótica. Se discuten las termostáticas asociadas. La estructura matemática que subyace a nuestra construcción es la de la teoría de grupos formal, que proporciona la estructura general de las correlaciones entre partículas y dicta los funcionales entrópicos asociados. Como ejemplo de aplicación, se ilustra el papel de las entropías de grupo en la teoría de la información y se proponen generalizaciones de la divergencia Kullback-Leibler. Se establece una nueva conexión entre la mecánica estadística y las funciones zeta. En particular, la entropía de Tsallis está relacionada con la función zeta clásica de Riemann.»
https://www.researchgate.net/publication/340459566_Universality_Classes_and_Information-Theoretic_Measures_of_Complexity_via_Group_Entropies
ENTROPÍA. ENTROPÍA DE GRUPO
«En termodinámica, la entropía (simbolizada como S) es una magnitud física para un sistema termodinámico en equilibrio. Mide el número de microestados compatibles con el macroestado de equilibrio; también se puede decir que mide el grado de organización del sistema, o que es la razón de un incremento entre energía interna frente a un incremento de temperatura del sistema termodinámico..»
Original PDF https://arxiv.org/pdf/1609.02065.pdf ¿Se puede ampliar este enfoque de manera que sea posible sistemas típicamente considerados por la ciencia de la complejidad, como los considerados en ecología, biología, dinámica neuronal, economía? Tal generalización requiere una metodología para manejar espacios de fase de sistemas complejos y sus medidas de probabilidad.
«Introducimos una clase de medidas de información basadas en entropías de grupo, permitiéndonos describir la
propiedades teóricas de la información de los sistemas complejos. Estas medidas entrópicas no son aditivas y
se deducen matemáticamente de una serie de axiomas naturales. Además, requerimos extensividad para garantizar que nuestras medidas de información sean significativas. Las medidas entrópicas propuestas son convenientemente
definidos para describir clases de universalidad de sistemas complejos, cada uno caracterizado por un estado específico
función de tasa de crecimiento espacial.
Una nueva perspectiva sobre la complejidad.
El objetivo de este trabajo es proponer una construcción teórica general que nos permita asociar una determinada clase de
sistemas complejos con una medida de información adecuada adaptada a esta clase, y expresada por una función entrópica
cional deducida matemáticamente de un conjunto de axiomas, pertenecientes a la familia de entropías de grupo1–3.
La idea principal detrás de nuestro enfoque es simple. En una amplia gama de aplicaciones, incluidas las físicas y sociales
ciencias, economía y neurociencias, se acostumbra utilizar medidas de información basadas en el aditivo
Entropía de Shannon (y su versión cuántica, la entropía de von Neumann).
La complejidad comúnmente adoptada en la literatura son en efecto la información mutua o la entropía relativa.
Sin embargo, en lugar de utilizar una medida entrópica de información definida a priori, y basada en una (a veces no
completamente justificada) sobre la aditividad, se puede proceder de manera diferente. Proponemos buscar nueva información
de medidas, escritas en términos de funcionales entrópicos que se diseñan de acuerdo con las propiedades específicas del
sistema, o familia de sistemas, bajo consideración.
Para ello, probaremos un teorema que nos permita asociar a una clase de sistemas de universalidad dada una determinada clase de sistemas,
medida entrópica cívica, construida de forma totalmente algorítmica. Esta medida es extensiva y no aditiva,
y depende explícitamente de la función de tasa de crecimiento del espacio de estados que caracteriza el contenido de clase de universalidad. Considerado, desde un punto de vista matemático, la derivación de cada una de estas medidas entrópicas es una consecuencia directa
consecuencia de un enfoque axiomático, basado en la teoría formal de grupos. Uso de las medidas entrópicas teóricas de grupo.
Así definida, construiremos una nueva familia de medidas teóricas de la información de la complejidad.
Los conocimientos profundos representados por el concepto de Información Integrada de Tononi-Edelman-Spons son tradicionalmente
formulados matemáticamente en términos de sumas de entropías condicionadas de particiones del sistema considerado, en
particular el cerebro humano. Sin embargo, esta representación matemática adolece de limitaciones. El grupo
de entropías teóricas introducidas en el presente artículo ofrecen una implementación matemática alternativa de la teoría original,idea final de TES, sin necesidad de introducir condicionamientos. A continuación explicamos cómo una nueva medida de complejidad
basado en entropías grupales puede ser útil para caracterizar el grado de enredo de la dinámica cerebral y, más aún, da una forma de calcular la capacidad de una red neuronal de cierto tamaño.
"En lingüística se considera que un discurso con muchos neologismos es más entrópico que uno con pocos neologismos ( mayor grado de neologismos puede aportar más información pero también -si es exagerado- caos en la información)."
"El concepto de entropía es usado también en mecánica estadística (mediante la teoría de la probabilidad es capaz de deducir el comportamiento de los sistemas físicos macroscópicos), teoría de la información ( relacionada con las leyes matemáticas que rigen la transmisión y el procesamiento de la información y se ocupa de la medición de la información y de la representación de la misma, así como también de la capacidad de los sistemas de comunicación para transmitir y procesar información) y seguridad entrópica (definición de seguridad utilizada en el campo de la criptografía)."
TOPOLOGÍA
"Espacio topológico: estructura matemática que permite la definición formal de conceptos como convergencia, conectividad, continuidad y vecindad, usando subconjuntos de un conjunto dado." https://es.wikipedia.org/wiki/Espacio_topol%C3%B3gico
"La función zeta de Riemann tiene una importancia significativa en la teoría de números, por su relación con la distribución de los números primos. También tiene aplicaciones en otras áreas tales como la física, la teoría de probabilidad y estadística aplicada." https://es.wikipedia.org/wiki/Funci%C3%B3n_zeta_de_Riemann
Topología de red: mapa físico o lógico de una red para intercambiar datos https://es.wikipedia.org/wiki/Topolog%C3%ADa_de_red Se puede usar la palabra arquitectura para hablar a la vez de la disposición física del cableado y de cómo el protocolo considera dicho cableado.
Comentarios
Publicar un comentario