ECOSISTEMAS: PÉRDIDA DEL ORDEN, CÓMO LOGRARLO.

 

«Los ecosistemas, el cerebro humano, las colonias de hormigas y las redes económicas son sistemas complejos que muestran un comportamiento colectivo, o emergencia, más allá de la suma de sus partes. La ciencia de la complejidad es la investigación sistemática de estos fenómenos emergentes y se extiende a través de disciplinas, desde la física y las matemáticas hasta las ciencias biológicas y sociales.».https://www.amazon.com/Complexity-Science-Henrik-Jeldtoft-Jensen/dp/1108834760?asin=1108834760&revisionId=&format=4&depth=1

«Modelamos la propagación de una epidemia a través de contactos humanos físicamente próximos utilizando un gráfico aleatorio Erdos-Renyi que representa una ciudad y simulamos resultados para dos tipos de agentes, pobres y no pobres. Sin intervención, se maximiza el número máximo de casos, pero no se observan diferencias en las tasas de infección entre pobres y no pobres. Cuando introducimos diferentes formas de intervenciones de distanciamiento social, se reducen los casos máximos, pero las tasas de infección de los pobres son sistemáticamente más altas que las de los no pobres en todos los escenarios. Se encontró que poblaciones más grandes, fracciones más altas de pobres y una mayor intensidad de las intervenciones empeoran progresivamente los resultados para los pobres, en comparación con los no pobres. El aumento de la población conduce a mayores tasas de infección entre los pobres, lo que respalda la preocupación de que los hogares en grandes asentamientos de alta densidad como barrios marginales se encuentran entre los grupos de población con mayor riesgo durante un brote. En relación con esto, se encuentra que el aumento de la población urbana pobre empeora los resultados de infección de los pobres, y dada la expansión de las ciudades en desarrollo en grandes metrópolis, este es un tema de gran preocupación para la salud pública y el bienestar económico. Los pobres también se ven afectados de manera desproporcionada por el aumento de la duración y la intensidad de las medidas de distanciamiento social, lo que señala la necesidad inmediata de que los países tengan pautas claras sobre cómo se puede practicar el distanciamiento social en asentamientos marginales de alta densidad, dados los contextos locales. Las soluciones sostenibles a largo plazo requerirán una inversión concertada en infraestructura ambiental y física para mejorar las condiciones de vida. Finalmente, abordar estos resultados inicuos para los pobres crea mejores resultados para toda la población, incluidos los que no son pobres https://www.researchgate.net/publication/340806327_Poverty_slums_and_epidemics_A_modeling_perspective

 Henrik Jeldtoft Jensen

 
«Se propone la noción de entropía de grupo. Permite la unificación y generalización de muchas definiciones diferentes de entropía conocidas en la literatura, como las de Boltzmann-Gibbs, Tsallis, Abe y Kaniadakis. Se introducen otros funcionales entrópicos, relacionados con leyes de correlación no triviales que caracterizan clases de universalidad de sistemas fuera de equilibrio cuando la dinámica es débilmente caótica. Se discuten las termostáticas asociadas. La estructura matemática que subyace a nuestra construcción es la de la teoría de grupos formal, que proporciona la estructura general de las correlaciones entre partículas y dicta los funcionales entrópicos asociados. Como ejemplo de aplicación, se ilustra el papel de las entropías de grupo en la teoría de la información y se proponen generalizaciones de la divergencia Kullback-Leibler. Se establece una nueva conexión entre la mecánica estadística y las funciones zeta. En particular, la entropía de Tsallis está relacionada con la función zeta clásica de Riemann
https://www.researchgate.net/publication/340459566_Universality_Classes_and_Information-Theoretic_Measures_of_Complexity_via_Group_Entropies
 
ENTROPÍA. ENTROPÍA DE GRUPO
 
«En termodinámica, la entropía (simbolizada como S) es una magnitud física para un sistema termodinámico en equilibrio. Mide el número de microestados compatibles con el macroestado de equilibrio; también se puede decir que mide el grado de organización del sistema, o que es la razón de un incremento entre energía interna frente a un incremento de temperatura del sistema termodinámico.
 
 
«El volumen del espacio de fase puede crecer superexponencialmente ("explosivamente") con el número de grados de libertad para ciertos tipos de sistemas complejos como los que se encuentran en biología y neurociencia, donde los componentes interactúan y crean nuevos estados emergentes. La teoría de conjuntos estándar puede colapsar como lo demostramos en un modelo simple que recuerda a los sistemas complejos donde emergen nuevos estados colectivos. Presentamos una entropía definida axiomáticamente y argumentamos que es extensa en el conjunto microcanónico, de igual probabilidad y canónico (máxima entropía) para espacios de fase de crecimiento superexponencial. Esta entropía puede ser útil para determinar medidas de probabilidad en analogía con cómo la mecánica estadística establece conjuntos estadísticos maximizando la entropía.» https://scholar.google.com/citations?view_op=view_citation&hl=es&user=P74k94cAAAAJ&citation_for_view=P74k94cAAAAJ:f2IySw72cVMC
 
Original  PDF https://arxiv.org/pdf/1609.02065.pdf   ¿Se puede ampliar este enfoque de manera que sea posible sistemas típicamente considerados por la ciencia de la complejidad, como los considerados en ecología, biología, dinámica neuronal, economía? Tal generalización requiere una metodología para manejar espacios de fase de sistemas complejos y sus medidas de probabilidad.
 

«Introducimos una clase de medidas de información basadas en entropías de grupo, permitiéndonos describir la propiedades teóricas de la información de los sistemas complejos. Estas medidas entrópicas no son aditivas y se deducen matemáticamente de una serie de axiomas naturales. Además, requerimos extensividad para garantizar que nuestras medidas de información sean significativas. Las medidas entrópicas propuestas son convenientemente definidos para describir clases de universalidad de sistemas complejos, cada uno caracterizado por un estado específico función de tasa de crecimiento espacial. Una nueva perspectiva sobre la complejidad. El objetivo de este trabajo es proponer una construcción teórica general que nos permita asociar una determinada clase de sistemas complejos con una medida de información adecuada adaptada a esta clase, y expresada por una función entrópica cional deducida matemáticamente de un conjunto de axiomas, pertenecientes a la familia de entropías de grupo1–3. La idea principal detrás de nuestro enfoque es simple. En una amplia gama de aplicaciones, incluidas las físicas y sociales ciencias, economía y neurociencias, se acostumbra utilizar medidas de información basadas en el aditivo Entropía de Shannon (y su versión cuántica, la entropía de von Neumann). La complejidad comúnmente adoptada en la literatura son en efecto la información mutua o la entropía relativa. Sin embargo, en lugar de utilizar una medida entrópica de información definida a priori, y basada en una (a veces no completamente justificada) sobre la aditividad, se puede proceder de manera diferente. Proponemos buscar nueva información de medidas, escritas en términos de funcionales entrópicos que se diseñan de acuerdo con las propiedades específicas del sistema, o familia de sistemas, bajo consideración. Para ello, probaremos un teorema que nos permita asociar a una clase de sistemas de universalidad dada una determinada clase de sistemas, medida entrópica cívica, construida de forma totalmente algorítmica. Esta medida es extensiva y no aditiva, y depende explícitamente de la función de tasa de crecimiento del espacio de estados que caracteriza el contenido de clase de universalidad. Considerado, desde un punto de vista matemático, la derivación de cada una de estas medidas entrópicas es una consecuencia directa consecuencia de un enfoque axiomático, basado en la teoría formal de grupos. Uso de las medidas entrópicas teóricas de grupo. 
 Así definida, construiremos una nueva familia de medidas teóricas de la información de la complejidad. Los conocimientos profundos representados por el concepto de Información Integrada de Tononi-Edelman-Spons son tradicionalmente formulados matemáticamente en términos de sumas de entropías condicionadas de particiones del sistema considerado, en particular el cerebro humano. Sin embargo, esta representación matemática adolece de limitaciones. El grupo de entropías teóricas introducidas en el presente artículo ofrecen una implementación matemática alternativa de la teoría original,idea final de TES, sin necesidad de introducir condicionamientos. A continuación explicamos cómo una nueva medida de complejidad basado en entropías grupales puede ser útil para caracterizar el grado de enredo de la dinámica cerebral y, más aún, da una forma de calcular la capacidad de una red neuronal de cierto tamaño.
ENTROPÍA (tendencia natural de la pérdida del orden) https://es.wikipedia.org/wiki/Entrop%C3%ADa_(desambiguaci%C3%B3n) 
"En lingüística se considera que un discurso con muchos neologismos es más entrópico que uno con pocos neologismos ( mayor grado de neologismos puede aportar más información pero también -si es exagerado- caos en la información)."
"El concepto de entropía es usado también en mecánica estadística (mediante la teoría de la probabilidad es capaz de deducir el comportamiento de los sistemas físicos macroscópicos),  teoría de la información ( relacionada con las leyes matemáticas que rigen la transmisión y el procesamiento de la información y se ocupa de la medición de la información y de la representación de la misma, así como también de la capacidad de los sistemas de comunicación para transmitir y procesar información) y seguridad entrópica (definición de seguridad utilizada en el campo de la criptografía)."


TOPOLOGÍA
 
"Espacio topológico: estructura matemática que permite la definición formal de conceptos como convergencia, conectividad, continuidad y vecindad, usando subconjuntos de un conjunto dado." https://es.wikipedia.org/wiki/Espacio_topol%C3%B3gico
"La función zeta de Riemann tiene una importancia significativa en la teoría de números, por su relación con la distribución de los números primos. También tiene aplicaciones en otras áreas tales como la física, la teoría de probabilidad y estadística aplicada." https://es.wikipedia.org/wiki/Funci%C3%B3n_zeta_de_Riemann

Topología de red: mapa físico o lógico de una red para intercambiar datos https://es.wikipedia.org/wiki/Topolog%C3%ADa_de_red
Se puede usar la palabra arquitectura para hablar a la vez de la disposición física del cableado y de cómo el protocolo considera dicho cableado.
 


 https://tex.stackexchange.com/questions/229536/draw-very-basic-network-topology-using-tikz

 
DNA (Digital Network Architecture) es una arquitectura de red digital, creada por Digital Equipment Corporation (DEC).

Comentarios