Archivos para junio, 2011

Redes de Acceso

Publicado: 29 junio, 2011 en Tecnología
Etiquetas:, , ,

Las Redes de Acceso son las que conectan tu casa con la central, que es la ubicación física donde los operadores de telecomunicación tienen sus equipos.

Se pueden dividir en dos grandes grupos: Las redes de acceso cableadas y las inalámbricas.

REDES DE ACCESO CABLEADAS

Entre las Redes de Acceso cableadas tenemos fundamentalmente tres tipos de cables o portadores físicos: el cobre, el coaxial y la fibra óptica.

REDES DE COBRE

El cable de cobre lleva con nosotros mucho tiempo, y gracias a él tenemos teléfono. El teléfono fijo ahora está desprovisto por completo de todo glamour e interés, pero indiscutiblemente fue uno de los grandes avances tecnológicos de la humanidad.

La señal de teléfono que va por el cable de cobre es una señal analógica, continua, y de un ancho de banda relativamente pequeño. Con la aparición de la tecnología ADSL cambió completamente la percepción y el uso de un portador que se intuía obsoleto. Línea de Usuario Digital Asimétrica. Es digital, no es continua, son unos y ceros los que se transmiten. Asimétrico porque transmite mucha más información hacia abajo que hacia arriba, teóricamente máximos de 8 Mbps de bajada y 1 Mbps de subida. Teóricos. La realidad suele ser bien distinta porque depende de la longitud de tu par de cobre, y en menor medida del diámetro del cable, del tipo de aislamiento, incluso de las posibles interferencias electromagnéticas del entorno.

 El ADSL es la tecnología que se utiliza sobre el cable de cobre para proporcionar datos con un ancho de banda aceptable, lo que se denomina banda ancha.

Mientras navegas puedes hablar por teléfono, eso significa que está la voz y los datos en el mismo cable, cada uno en su lugar del espectro, es decir, utilizando frecuencias diferentes.

Cuando se habla de ADSL en realidad se está haciendo referencia a la familia DSL, que ha ido evolucionando ganan en ancho de banda tanto de bajada como de subida. Las más comunes en España son el ADSL 2+ que teóricamente incrementa la velocidad de bajada hasta 24 Mbps, manteniendo la velocidad de subida y el VDSL2 que aumenta teóricamente la velocidad de bajada hasta los 50 Mbps y la de subida a 3 Mbps.

Como ya he comentado, la familia DSL tiene el problema fundamental del alcance, si vives demasiado lejos de la central en la que acaba tu par de cobre, la velocidad que alcanzas no es demasiado elevada.

El equipamiento que se instala en la central para terminar la conexión ADSL se denomina DSLAM, Multiplexor de líneas ADSL. Es un equipo que tiene un conjunto de módems parecidos a los que tenemos en casa, uno para cada usuario que se conecte a ese DSLAM. El DSLAM se conecta con las Redes de Agregación

REDES  HÍBRIDAS DE FIBRA ÓPTICA Y COBRE

Cuando se quiere dar cobertura a una zona que está especialmente alejada de la central, se puede utilizar una arquitectura en la red que se denomina FTTN, Fibra hasta el Nodo.

El Nodo es un elemento que se coloca en un armario, en un punto estratégico de la zona que se quiere cubrir, y dentro se instala un DSLAM, pero más pequeño que su equivalente de central ya que normalmente atiende menos usuarios.

La conexión entre el nodo y la central se realiza con fibra óptica, mientras que la conexión entre el nodo y los usuarios se realiza con cobre.

Las prestaciones son equivalentes a la red anterior.

REDES HÍBRIDAS DE FIBRA ÓPTICA Y COAXIAL

También existen las redes híbridas de fibra y coaxial (HFC). De la central del operador de telecomunicaciones sale un cable de fibra óptica y llega hasta un punto determinado donde se coloca un armario y equipamiento dentro. En este caso el equipamiento se llama CMTS, Sistema de Terminación de cable módems.

Desde ese armario hasta cada una de las viviendas se despliega cobre para los servicios de voz y cable coaxial, el de la tele, para los servicios de datos y vídeo. El equipamiento en casa del usuario se denomina cable-módem o módem-cable

En este tipo de redes, la tecnología que se utiliza es DOCSIS, Especificación de Interfaz para Servicios de Datos sobre Cable. Efectivamente esto es lo que se llama redes de cable, aunque no sea del todo correcto, ya que la fibra y el cobre también son cables. DOCSIS fue diseñado pensando en las redes de Televisión por cable, CATV, pero también se prestan servicios de datos, es decir, acceso a Internet.

A diferencia del ADSL, en los sistemas DOCSIS el ancho de banda es compartido por todos los usuarios cuyos coaxiales cuelgan del mismo nodo. El ancho de banda que puede ofrecer esta tecnología depende de cómo la implemente cada operador. El máximo ancho de banda conseguido con DOCSIS 3.0 fue publicado en Marzo de 2011 por Cisco y hablaba de 1.6Gbps  a compartir entre un número de clientes que también decide el operador que despliega las redes HFC. En cualquier caso estas velocidades son de laboratorios, las velocidades reales se mueven en el entorno de los 400 Mbps.

REDES DE FIBRA

Por último en las redes cableadas estarían las redes de acceso de fibra óptica.

Este tipo de redes se denomina FTTH, Fibra hasta el Hogar, y a día de hoy es la única apuesta de futuro que garantice una buena inversión a futuro. La fibra se puede desplegar de varias formas. La fibra punto a punto sería equivalente a la red de cobre, es decir habría una fibra óptica para cada cliente. Pero este despliegue es muy caro, y sólo se realiza para clientes importantes, es decir, empresas de mayor o menor tamaño. Para llegar al usuario residencia lo que se realiza es una arquitectura punto a multipunto, es decir, que con una fibra óptica que sale de la central, la distribuyo entre un número determinado de clientes que depende del operador que despliega la fibra.

La tecnología que se despliega masivamente en las fibras multipunto es GPON, Red Óptica Pasiva Gigabit. El GPON proporciona en la fibra 2.5 Gbps de bajada y 1.25 Gbps de subida, este ancho de banda se tiene que compartir con el número de usuarios que cuelgan de cada fibra. Además, GPON proporciona un camino adicional para la distribución de señal de Televisión, sólo de bajada.

El equipo que se coloca en la central para terminar las fibras se denomina OLT, Terminación de Línea Óptica, y en tu casa hay que poner otro equipo que también termina la fibra y que se llama ONT, Terminación de Red Óptica, también ONU, Usuario de Red Óptica.

 REDES INALÁMBRICAS

Las redes inalámbricas no utilizan ningún portador físico para su transmisión. El canal que emplean es el aire. Se trata de redes de radio que utilizan diferentes frecuencias y tecnologías para transmitir la información. Por regla general, cuanto mayor sea la frecuencia que utiliza un sistema, menor será su alcance, es decir, el área de cobertura alrededor de la cual se puede prestar el servicio. Aunque la modulación que se utiliza también determina la cobertura, si bien en menor medida.

Esto presenta grandes ventajas y algún inconveniente. El acceso inalámbrico es imprescindible para permitir la movilidad del usuario, pero también hay soluciones inalámbricas para acceder siempre desde un mismo lugar. Por contrapartida, las redes inalámbricas suelen ser menos robustas que las cableadas debido fundamentalmente a las posibles intereferencias electromagnéticas producidas no sólo por otros sistemas eléctricos de comunicaciones sino por las condiciones climáticas del entorno, como la lluvia o las tormentas eléctricas, incluso la radiación solar.

Ojo, estamos hablando de tecnologías para acceder a las redes del operador. WiFi no está en estas categorías. La tecnología WiFi la utilizas dentro de tu casa, o del bar o de donde sea, pero es el módem router de ADSL por ejemplo con el que te conectas. Y para salir a Internet se usaría la red de cobre que hemos visto en primer lugar.

REDES DE ACCESO FIJO: LMDS y WIMAX

LDMS significa Sistema de Distribución Multipunto Local, WIMAX Wireless Medium Acces. Se tratan de sistemas que el operador despliega cuando las zonas que quiere cubrir con los servicios se encuentran demasiado lejos de cualquiera de sus centrales, o puntos de presencia.

LMDS es más antigüa y por tanto tiene menos prestaciones. El ancho de banda es relativamente bajo, 8 Mbps en la antena, con lo que acceder a internet resulta un tanto farragoso. Además es una tecnología que necesita visibilidad directa entre la antena que se pondría en la vivienda y la antena que cubre la zona, con lo que se dificulta e incrementa el coste en las zonas montañosas o los centros de ciudades donde hay edificios de diferentes alturas.

WiMAX es más moderna y tiene más ancho de banda. Sobre 100 Mbps para compartir entre todos los clientes que se conecten a la Estación Base, que es como se suele llamar a los equipos de Acceso inalámbrico, es decir, las antenas y algo mas.

REDES DE ACCESO MÓVIL  2G: GSM, 3G: UMTS,4G: LTE

Actualmente están desplegados sistemas 2G y 3G, en algunos paises se está empezando a desplegar la cuarta generación, pero todavía no es algo masivo y generalizado.

Las tecnologías de radio móviles han ido evolucionando para incrementar los anchos de banda disponibles.

El GSM es el sistema más antigüo y por lo tanto el de menor velocidad. Para habilitar un acceso interesante a internet en redes GSM, se utiliza otras tecnologías como el GPRS y el Edge.

La tercera generación de móviles ya ofrece un acceso mucho mejor a internet, sobre todo con tecnologías HSPA+ que incrementan considerablemente la velocidad con la que se puede acceder. Podemos hablar de hasta 42 Mbps en el aire, a compartir.

La cuarta generación, LTE, Evolución a Largo Plazo proporcionará velocidades aún mayores, rondando el Gigabit por segundo…siempre en el aire a compartir por los usuarios que estén conectados simultáneamente.

Estás en tu casa tan ricamente disfrutando de una conexión de banda, mas o menos ancha gracias a la cual puedes entrar en el maravilloso mundo de Internet.

A casi casi todos los internautas nos suena ADSL, nos suena Fibra y nos suena IP. Pero pocos conocen cómo realmente se consigue la conectividad entre tu casa y el mundo. Veámoslo de manera muy simplificada y esquemática.

Lo primero que debe haber es una Red de Acceso . Las redes de acceso son las que te conectan con alguna central del operador con el que tienes contratado el servicio, en principio. En estos emplazamientos se ubican los elementos de red o nodos, equipos de telecomunicaciones que tienen diferentes funcionalidades según para lo que se utilicen. Pueden ser físicas como el ADSL o lógicas, como la red de los móviles.

Las redes de acceso se conectan a lo que se denominan Redes de Agregación. Agregar tiene un significado claro, unir o añadir una parte a un todo. Se trata de agrupar el tráfico de los millones de usuarios que queremos acceder a internet de manera más eficiente. Es como llenar los coches para llegar a un mismo sitio, en lugar de que cada uno utilice su propio coche. Mucho más barato y eficiente. Fundamentalmente se utilizan dos tecnologías en la agregación de tráfico: El ATM y el Ethernet. También se siguen usando protocolos más antigüos como Frame Relay y X.25.

Las redes de Agregación hacen de puente entre las redes de Acceso y las Redes IP, y éstas a su vez son las que están conectadas con otras redes IP del planeta que conforman lo que se conoce como Internet. Aunque se llamen redes IP, el protocolo IP no está solo en este tipo de redes, sino que funciona conjuntamente con una serie de protocolos que le ayudan a hacer las cosas de manera más eficiente y controlada.

Por último, para que se establezca la comunicación entre unas redes y otras y entre los distintos nodos de cada red normalmente se utiliza la Red de Transporte, que es la que lleva la información de un punto a otro. Tecnologías asociadas a las redes de Transporte son el SDH, WDM, OTN…y algunas más.

Además de todas redes que proporcionan la conectividad, es decir el camino físico y la inteligencia para decidir ese camino físico, también estarían otro tipo de equipos que dan los servicios y que estarían conectados directamente a las redes sobre las que presta el servicio. Por ejemplo, para navegar por internet necesitas una dirección IP, y hay una serie de servidores y elementos de red que te la facilitan, o los correos electrónicos, que también necesitan de servidores específicos. En ambos casos estos servidores estarían conectados a la red IP.

No todos los operadores y proveedores de servicio tienen desplegadas todas las redes, o no en todas las zonas donde prestan sus servicios. Se alquilan infraestructura unos a otros.

Si vas pinchan en los diferentes enlaces que te has encontrado, conocerás algo más de detalle sobre los distintos tipos de red. Espero que te sea útil

El segundo sexo

Publicado: 29 junio, 2011 en Filosofía
Etiquetas:, ,

Simone de Beauvoir no era feminista cuando escribió este libro. A raíz de él no sólo devino feminista sino que se convirtió en uno de sus principales estandartes.

El segundo sexo es una obra clave del pensamiento, no solo feminista, sino del siglo veinte. De ella surgen los nuevos temas del feminismo, una vez agotado el periodo de las vindicaciones primordiales (derecho al voto y a la educación). Se analiza la condición de la mujer desde los diversos puntos de vista desde los que se la conceptualiza: ontológico, sociológico, cultural, científico, histórico.

El libro tiene ya mas de 60 años, y  por lo tanto está algo desfasado. Muchas de las cosas que dice ya no aplican, algunas pueden incluso indignar si se pierde de vista el contexto de la obra. Muchas otras siguen siendo una triste realidad. Recientemente salió una lista de los países que eran mas perjudiciales para las mujeres. En la mayoría del planeta la mujer sigue siendo el segundo sexo, lo otro. La alteridad que puso de relevancia Simone en este libro desgraciadamente sigue siendo una realidad.

” No se nace mujer, se llega a serlo”, nos transmite que el género es una construcción cultural sobre el sexo. Y, por tanto, no existe una esencia femenina, algo que caracterice a la mujer como tal. Este llegar a ser está condicionado por una cultura y una sociedad que ha adjudicado a las mujeres el estatus de otras. La alteridad es una categoría que recorre todo el libro y que sirve para indicar como las mujeres están oprimidas y como están en una posición de inferioridad con respecto a los varones. Toma esta categoría de La Fenomenología del Espíritu de Hegel.

Sulamith Firestone consideró sin embargo innecesario el haber recurrido a la categoría hegeliana de la otra para explicar la opresión de las mujeres, ya que planteó que el problema tiene unas raíces más simples que están en la propia biología. Las clases sexuales surgen de la propia realidad biológica, y si bien tal diferenciación no exigiría por si misma el desarrollo de un sistema de clase, es decir, de dominación de un grupo por otro, tal sistema surgió como una consecuencia de las funciones reproductivas basada en tales diferencias.

Otro tema relevante que plantea es la inmanencia impuesta a la mujer. Partiendo de una afirmación netamente existencialista, diríamos que todo sujeto se afirma concretamente a través de los proyectos como una trascendencia. Hacerse ser consiste en realizar acciones que son cumplimiento de los proyectos y fines que se ha propuesto. Si no realizamos proyectos nos quedamos como estábamos, vivimos en la inmanencia, seguimos siendo como éramos, un ser que no se trasciende. Esta caída en la inmanencia puede ser consentida por el propio sujeto que acepta su cosificación y se convierte en un sujeto inmoral; o bien puede ser que algo desde fuera nos impide realizarla y en este caso se llama opresión. Para Beauvoir las mujeres estamos oprimidas en esta sociedad patriarcal que nos condena a vivir en la inmanencia y por lo tanto no podemos realizar nuestra transcendencia, porque la cultura y la sociedad nos lo impiden.

Y esta es la causa fundamental por la que no hay en la historia mujeres artistas, ni folósofas, por ejemplo. El arte, la literatura, la filosofía, son tentativas para fundar de nuevo el mundo sobre una libertad humana: la del creador; en primer lugar, es preciso plantearse uno mismo, sin equívocos y como una libertad para alimentar semejante pretensión. Las restricciones que la educación y la costumbre imponen a la mujer limitan su aprehensión del Universo; Cuando, por fin, le sea posible a todo ser humano colocar su orgullo más allá de la diferenciación sexual, en la difícil gloria de su libre existencia, solamente entonces podrá confundir la mujer su historia, sus problemas, sus dudas y sus esperanzas con los de la Humanidad; solo entonces podrá intentar descubrir en su vida y sus obras toda la realidad y no únicamente su persona. En tanto que tenga que seguir luchando para convertirse en un ser humano, no podrá ser una creadora.

El feminismo de Beauvoir es un feminismo radical, su propuesta es cambiar no sólo el papel de la mujer sino también el del hombre y conseguir una sociedad en donde ningún sexo se oprima y ambos sean libres. Cuestionamos la idea de la mujer, y también cuestionamos la idea del hombre, pretendemos deconstruir los dos. Los hombres son una construcción social al igual que las mujeres y esto forma parte, no de la herencia de El Segundo Sexo de Beauvoir, sino de la radicalización de Beauvoir después de haber escrito El Segundo Sexo. La solución está en considerarnos por encima de todo seres humanos.

Texto completo: http://wp.me/P1Bnwz-I

En Laponia hace frío…

Publicado: 28 junio, 2011 en Viajes
Etiquetas:

…cierto…pero lo que es yo, no me río. Noeli, que sepas que Joulupukki no es mi abuelo ni el tuyo, y que no entiendo como podías ser siempre feliz. Rita la cagaste, me vengaré, se lo pienso chivar a milikito. ¡Cuanto daño han hecho los dibujitos animados japoneses mare mia!

Casi 200.000 lagos, 17,2 moles de pinos y la marabunta pero de mosquitos. Como pa reirse. En Rovaniemi y sus alrededores, cuando el sol se asoma pica, pero menos que los mosquitos que pican siempre, con y sin sol, y mucho. ¡Pero mucho oiga!. En estas fechas la noche es día y el sol en lugar de caerse en el horizonte se desplaza como de costao, que cosas tú, desconcertante cuanto menos. Eso si se deja ver, porque el astro rey se vende caro. Casi tan caro como las cervezas. El deporte nacional es cogerse unas moñas de impresión. Lo practican todos y muy a menudo. Y al precio que tiene el alcohol yo me pregunto ¿cuanta pasta gansa deben ganar?. Y si ganan tanta pasta, ¿porqué se suicidan?, que resulta que es el segundo deporte nacional. Lo mismo va a ser verdad que el dinero no da la felicidad. Que se lo digan a Noeli.

¿Los finlandeses sosos? Noooo que va, es una alucinación en masa. Son lentos, tranquilos, reposados, y sosos, requetesosos.  No habla inglés ni el tato, y el suomi no es que sea muy intuitivo. Son bastante poco elegantes, con tanto clima extremo es difícil mantener el glamour, vale, se puede entender. Pero saliendo de la moda decathlon no tienen ningún sentido de la estética. El diseño raro, raro, como buen diseño. Austero, sobrio, ¿soso?. No son guapos, no son tan altos, son robustos y con el pelo  o superrubio o meganegro, el moreno no ha venio a Finlandia. El sentido del humor tampoco.

El reno bien gracias, por el bosque, en las granjas y en el plato, pelín espaluchaos y leprosillos por aquello del cambio de muda que vienen los “calores” y hay que estar fresquito. Grandiosos kebabs árticos, usease, de reno, base de la alimentación del guiri medio. Caro carísimo, pequeño y pequeñísimo  y delicioso solomillo, embutidos y cecinas varias. También deconstruido para decorar el frente de una cálida chimenea. El reno viene siendo lo que el cerdo, se aprovecha todo todo y todo.

Pinos, pinos, pinos…mira un lago…y pinos, pinos pinos…En Laponia finlandesa no es que los árboles no te dejen ver el bosque…es que no te dejan ver nada…y pinos, y pinos, y más pinos, y mosquitos, mira otro lago, rojo intenso, hierro y azufre en abundancia. Pinos silvestres, algún que otro abedul, algún que otro sauce pero poco, algún que otro álamo, pero menos, y pinos, pinos y pinos. Petao de pinos. ¡Coño un megapinar!

Bares los justos, restaurantes menos, lo de socializarse no lo llevan bien, salvo cuando se emborrachan. Entonces se transforman, son cálidos y sociables, te silvan y ronean por la calle, hablan contigo sin venir a cuento. El mayor problema criminal que tienen son las agresiones familiares….cuchillos y alcohol nunca fueron una buena combinación.

Vamos, que mejor probamos en invierno, que lo mismo mola. De todas formas me lo he pasado requetebien. Gracias al triunvirato del GGT (Glamour Gin Tonic ) y a la niña del bobsleigh, que lo han hecho bastante más interesante, y al sol que se dignó aparecer un par de veces o tres aunque siempre estuvo allí entre las sombras.  Un besote pa tos

Fotos en Laponia, más info a filotecnologa@gmail.com

La Ingeniería de Sistemas es un concepto un tanto complejo, al que nos podemos aproximar con diferentes definiciones que más o menos cubran todo el marco conceptual que engloba.

Podría decirse que la Ingeniería de Sistemas es una aplicación de las ciencias matemáticas y físicas para desarrollar sistemas que utilicen económicamente los materiales y fuerzas de la naturaleza para el beneficio de la humanidad. Se trata de un conjunto de metodologías para la resolución de problemas mediante el análisis, diseño y gestión de sistemas. Es el conjunto de recursos humanos y materiales a través de los cuales se recolectan, almacenan, recuperan, procesan y comunican datos e información con el objetivo de lograr una gestión eficiente de las operaciones de una organización.

Un sistema aplica a muchos conceptos, dependiendo del enfoque que quiera realizarse:

  • Si se pone énfasis en la interrelación de las partes un sistema es simplemente un conjunto de unidades en interrelación
  • Aplicando la definición de Saussure, padre de la lingüística sistémica, se trata de una totalidad, hecha de elementos solidarios que no pueden ser definidos más que los unos con relación a los otros en función de su lugar en esa totalidad, es decir, no se puede definir una parte desligándola del resto
  • Basándonos en Gaines y la escuela constructivista un sistema es lo que se distingue como tal. Los sistemas no existen en el mundo real independientes de la mente humana. Se crean por los actos de hacer distinciones en el mundo real o en el de las ideas. La inteligencia se fija en un objeto y aparecen características relevantes, pero la percepción de objetos es subjetiva y susceptible de discusión

El concepto de sistema arranca del problema de las partes y el todo, ya discutido en la antigüedad por Hesíodo (siglo VIII a.C.) y Platón (siglo IV a.C.) Sin embargo, el estudio de los sistemas como tales no preocupa hasta la segunda guerra mundial, cuando se pone de relieve el interés del trabajo interdisciplinar y la existencia de analogías (isomorfismos) en el funcionamiento de sistemas biológicos y automáticos. Este estudio tomaría carta de naturaleza cuando, en los años cincuenta, L. von Bertalanffy propone su Teoría General de Sistemas.

La aparición del enfoque de sistemas tiene su origen en la incapacidad manifiesta de la ciencia para tratar problemas complejos. El método científico, basado en reduccionismo, repetitividad y refutación, fracasa ante fenómenos muy complejos por varios motivos:

  • El número de variables interactuantes es mayor del que el científico puede controlar, por lo que no es posible realizar verdaderos experimentos.
  • La posibilidad de que factores desconocidos influyan en las observaciones es mucho mayor.

Como consecuencia, los modelos cuantitativos son muy vulnerables. El problema de la complejidad es especialmente patente en las ciencias sociales, que deben tratar con un gran número de factores humanos, económicos, tecnológicos y naturales fuertemente interconectados. En este caso la dificultad se multiplica por la imposibilidad de llevar a cabo experimentos y por la propia intervención del hombre como sujeto y como objeto (racional y libre) de la investigación.

La mayor parte de los problemas con los que tratan las ciencias sociales son de gestión: organización, planificación, control, resolución de problemas, toma de decisiones,… En nuestros días estos problemas aparecen por todas partes: en la administración, la industria, la economía, la defensa, la sanidad, etc.

Así, el enfoque de sistemas aparece para abordar el problema de la complejidad a través de una forma de pensamiento basada en la totalidad y sus propiedades que complementa el reduccionismo científico.

Fueron los biólogos quienes se vieron en primer lugar en la necesidad de pensar en términos de totalidades, a ellos debemos la consideración de  jerarquías organizadas en niveles, cada uno más complejo que el anterior. En cada uno de estos niveles aparecen propiedades emergentes que no se pueden explicar a partir de los componentes del nivel inferior, sencillamente porque se derivan de la interacción, y no de los componentes individuales. También les debemos conceptos como el Holismo, en elque las disposiciones naturales de materia en el universo son totalidades con una organización interna y una autodirección, y la  Homeostasis, mecanismos autorregulados y autorreguladores.

Los ingenieros eléctricos también tuvieron algo que decir al respecto, introduciendo los conceptos de Sistemas abiertos, que son los que intercambian materiales, energía e información con el entorno, y de Cibernética: teoría de la comunicación y control en el animal y en la máquina, válido tanto para sistemas naturales como artificiales ya que aparecen fenómenos de comunicación y control que pueden ser tratados con una misma metodología. También pusieron de manifiesto la importancia y ubicuidad de los procesos de realimentación.

Los conceptos teóricos no están ligados indefectiblemente a una designación fija, y a veces existen mucho antes de que la denominación ahora dominante haya aparecido. No fue necesario que el término ‘sistema’ estuviera disponible, ni que se construyera alguna teoría de los sistemas, para que el concepto correspondiente circulara en el lenguaje cotidiano y en el de las disciplinas filosóficas y científicas.

Aún así, se desarrolló una Teoría General de Sistemas que sirvió básicamente para plasmar y concretar conceptualmente lo que se manejaba de manera intuitiva. Se desarrollaron terminologías y metodologías ad hoc.

Pese al uso relativamente habitual, superficial, y a veces incorrecto de la novísima terminología, las concepciones subyacentes no parecen haber superado de modo apreciable el modelo de equilibrio mecánico construido siglos atrás. Lo que de manera equivalente ocurre con los modelos orgánicos: apenas se ha avanzado a partir del callejón sin salida en que nos dejara el darwinismo social, tan aficionada a las analogías orgánicas.

Aún se afirma que las“sociedades” tienen “necesidades” y afrontan problemas en cuanto a mantener su estructura (institucionalizada), problemas que son resueltos gracias a la acción de ciertos mecanismos “homeostáticos” intrínsecos, capaces de operar de manera automática; o bien se dice que las clases sociales equivalen a una selección natural, fruto de la lucha competitiva, que impele más o menos automáticamente a los “más aptos” o “mejor calificados” hacia la cúspide, y así ocupan éstos las posiciones esenciales, desde el punto de vista funcional, para la “supervivencia” de las sociedades.

Las sociedades y las organizaciones son sistemas sociotécnicos,  máquinas automáticas (o simplemente “autómatas”). El modelo básico es simple: un autómata no sólo utiliza recursos del medio  y actúa sobre él, sino que obtiene y procesa información sobre las modificaciones que induce en el entorno (retroalimentación). De ese modo, es capaz de corregir continuamente su acción, logrando gobernar su curso en los procesos de interacción en los que participa. Lo esencial en el punto de vista de la cibernética no reside en los intercambios de materia o energía, que tanto importaban en la mecánica clásica. Lo que está en juego es sobre todo la información, en tanto es a través de ella que operan “factores determinantes o de control”

La sociedad de la información en la que estamos inmersos requiere de nuevas herramientas que sean capaces de extraer sinergia donde la ciencia se queda escasa o simplemente produce un vacío. La Teoría de Sistemas y la Ingeniería de Sistemas pueden ayudar a solventar esta nueva situación, de manera que sea lo más cómoda y productiva posible para el ser humano.

La inercia de los sistemas sociales es mucho mas lenta que la de los sistemas tecnológicos. El ser humano difícilmente se ve capaz de asumir y afrontar con éxito los nuevos y continuos cambios tecnológicos que nos rodean. Probablemente estamos siendo testigos directos de lo que se ha llamado La Revolución de la Información, y que probablemente tenga repercusiones mas significativas que las que tuvo en su tiempo la Revolución Industrial.

En la actualidad, el aporte de la Teoría de Sistemas en general y de la Cibernética  en particular ha redundado a su vez en el desarrollo de nuevas disciplinas. El modelo de sistema viable, ha sido aplicado y continúa aplicándose en todo tipo de organización y no sólo en empresas. Desde una sociedad del aprendizaje hasta una facultad universitaria, desde escuelas hasta hospitales, de una rama de servicio social a otra, de una institución gubernamental a un departamento de estado, de provincia a federación y eventualmente en una aplicación múltiple de la economía socio-industrial de una nación entera, el poder de diagnóstico de la herramienta ha probado ser útil.

Si quieres saber mas: http://wp.me/P1Bnwz-cr

Lo que más quería en el mundo Einstein, además de a su segunda esposa que no le hacía preguntas sobre el trabajo, era conseguir una única teoría unificada para explicar todo el universo, desde lo macro más macro a lo micro más micro. Con su Relatividad General no lo consiguió, le faltó su poquito de cuántica y su poquito de incertidumbre.  Podríamos decir que la trimurti de la física actual la conforman Einstein, Planck y Heisenberg. También Euler tendría mucho que decir al respecto, ya que se le podría denominar el padre de la Teoría de Cuerdas, que a día de hoy es la respuesta al sueño de Einstein mas plausible. Si no ella, sus amigas más íntimas..las cinco Teoría de las Super Cuerdas o mejor aún, la Teoría M.

Como ya comenté en la entrada de Los ladrillos del universo, la Teoría de Cuerdas basa sus postulados en la existencia de unos hilos vibrantes de energía que compondrían todas las partículas de la materia. Cuando se empezó a trabajar con los hadrones allá por los 60, la teoría cuántica no podía con ellos. La interacción de partículas puntuales no correspondía a la interacción que manifestaban. Más bien se debería tratar de objetos extendidos en una dimensión, es decir, en vez de puntos, cuerdas.  Estas teorías entusiasmaron a los  físicos, sobre todo cuando se mostró que a bajas energías, donde las cuerdas se pueden considerar puntuales, la teoría reproducía la Relatividad General. Todo encajaba en un puzle sideral. Los modos de vibración que corresponderían a los gravitones, que son las partículas de la gravedad, a baja energía interactúan de acuerdo a las leyes de la Relatividad General. Y además no es posible que lo hagan de otro modo sin violar algún postulado básico de la teoría. De la misma manera en que la Relatividad General se reduce a la teoría de Newton para campos débiles, la teoría de cuerdas se reduce a la Relatividad General para bajas energías.

Hay numerosas teorías de partículas puntuales, pero sólo hay cinco tipos de teorías de cuerdas que pasan el test de consistencia matemática. Las cuerdas deben estar sujetas a las leyes de la relatividad y hay que desarrollar una mecánica cuántica de cuerdas. Sólo unos pocos modelos cumplen estos requisitos.

Pero al intentar aplicar a la teoría los postulados de la Mecánica Cuántica, se descubrió que el número de dimensiones del espacio tiempo debía ser 26, 25 dimensiones espaciales y el tiempo. Por primera vez una teoría predice el número de dimensiones del espacio-tiempo, pero bote pronto parece un poco absurda esta predicción. A esto habría que añadirle que entre todos los modos de vibración que aparecen hay uno que corresponde a una partícula cuya masa al cuadrado es negativa. Es decir, la masa no es un número real sino imaginario. Estas partículas se llaman taquiones y básicamente constituyen el eje del mal de las teorías cuánticas porque conducen a resultados ilógicos e inexplicables. Además, estas cuerdas que viven en 26 dimensiones sólo tienen grados de libertad bosónicos, no incluyen fermiones, y entonces no pueden explicar la materia que conocemos. Es decir, valía para poco.
Todos estos problemas se solucionaron agregando supersimetría a la teoría, es decir incorporando compañeros fermiónicos para cada bosón. Así se encontraron otras formulaciones que no contienen taquiones y no requieren tantas dimensiones para el espacio−tiempo. Estas son las cinco teorías de supercuerdas, que viven en 10 dimensiones espacio−temporales. Con todo esto, la teoría no podía responder una pregunta esencial. ¿Por qué nuestro universo es sólo una de las muchas soluciones de la teoría de cuerdas?

Partiendo de estas cinco Teorías de Cuerdas , Edward Witten llegó a una revolucionaria teoría de unificación llamada Teoría M. Definió elementos que no sólo podían ser cuerdas vibrantes (abiertas o cerradas) sino objetos de una dimensionalidad mayor a los que se les dió el nombre de membranas o p-branas. Al parecer nuestro universo podía ser una de esas membranas que flotan en un espacio de mayor dimensionalidad junto a otras membranas, que vendrían a representar a otros universos. Lo que distingue a las cuerdas de las p-branas es que la teoría cuántica de campos que describen objetos de una dimensión son renormalizables, mientras que para p>1, estas teorías son no renormalizables. La Teoría M añadió una dimensión más, quedando en 11 las dimensiones espcio temporales.

La teoría conceptualmente no es nueva. Salvando las distancias, esto ya lo decía Giordano Bruno hace la friolera de algo más de 400 años. Bruno hablaba de los multiversos y fué acusado por ello de hereje y quemado en la hoguera, curiosamente por la misma alma cándida que poco despues acusó a Galileo. ¡Angelico el Belarmino!

Cotilleos varios aparte, estas membranas podrían estar chocando indefinidamente entre sí, generando no sólo el Big-Bang que creó nuestro universo, sino muchos otros Big-Bangs con una frecuencia impredecible. Lo que viene siendo una orgía cósmica en todo su esplendor.

Una diferencia fundamental que distingue a la teoría M de cualquier teoría previa es que los principios no se ponen a dedo; son consecuencia matemática del modo particular de satisfacer las reglas de la mecánica cuántica. No hay ningún parámetro libre en la teoría M; no hay nada que se pueda ajustar. Todos los elementos de la teoría quedan determinados por la consistencia matemática. M predice que el espacio−tiempo tiene 11 dimensiones y es supersimétrico. Como el gravitón parece ser una característica inevitable de M, se puede decir que esta teoría explica por qué existe la gravedad.

Para ser verdaderamente exitosa la teoría debería tener una única solución a partir de la cual podamos saber qué tipos de partículas existen a bajas energías, sus masas, las intensidades de sus interacciones y probabilidades de todo tipo de procesos. Sólo realizando estos cálculos y comparándolos con el experimento podremos saber si M es correcta. Todavía no hay un test decisivo de la teoría, no  hay predicciones cuantitativas. Pero es la única candidata para ser la teoría madre. Se puede pensar en M como el embrión de la primera teoría matemáticamente satisfactoria de la gravedad cuántica unificada con las otras fuerzas fundamentales de la naturaleza.

La Teoría M es una muy buena candidata para cumplir el sueño del Einstein y convertirse en una Teoría del todo. Pero como no ha hecho ninguna predicción clara que pueda constrastarse empíricamente, el escepticismo que la rodea es espeso. Feynman llegó a decir que es un disparate. Pero ni Feynman es Belarmino, ni Witten  es Bruno, afortunadamente para los dos.

Empecemos por el principio, o casi. Una fibra óptica puede llevar una única señal ocupando todo el espectro de frecuencias. Esto se llama interfaces Blanco/Negro o grises. Normalmente, en los sistemas de transmisión se utiliza una tecnología que se denomina WDM, Multiplexación por divisón en longitud de onda. Esta tecnología lo que hace es dividi el espectro en una serie de canales ópticos, equivalentes y equiespaciados, y se llaman interfaces coloreados. Para que nos entendamos, lo que sucede en los sistemas WDM es como lo que sucede un día lluvioso en el que sale el sol. La luz blanca del sol, que aunque lo veamos amarillo, su luz es blanca, al atravesar las gotas de lluvia se difractan obteniendo los siete colores del arcoiris. Cada canal óptico  de un sistema WDM sería un color. Pero todos los colores ocupan el mismo espacio, por decirlo de alguna manera. En los sistemas WDM, dependiendo de la rejilla que se utilice caben mas o menos colores. Actualmente se pueden conseguir 40, 80 o 160 canales ópticos separados entre si 100 GHz, 50 GHz o 25 GHz respectivamente. Los sistemas que se usan normalmente son de 100 GHz y de 50 GHz, es decir que en una fibra pueden ir 40 u 80 longitudes de onda, canales ópticos o colores.

La velocidad de 100 Gbps cabe en un canal de 50 GHz, pero para velocidades superiores a los 100Gbps este canal se queda pequeño, en cambio el canal de 100 GHz se queda grande. ¿Cual es la solución? Pues lo que parece que va a cuajar  es lo que se está denominando Gridless, aunque de manera incorrecta, y también Rejilla Flexible, mucho mas acertado. Consiste básicamente en que el espectro se trocea en pedazos de un tamaño determinado. Ese tamaño tiene toda la pinta que va a ser 12.5 GHz. Cada canal, dependiendo de la velocidad que lleve y de la distancia que se deba alcanzar podrá utilizar una modulación u otra, y podrá utilizar tantas rodajas del espectro como sea necesario. Señales de 100 Gbps podrán utilizar 4 rodajas y señales de 400 Gbps 6 rodajas, señales de 10 Gbps podrían ocupar 1 o 2 rodajas. Es decir, seríamos mucho mas eficientes a la hora de asignar el espectro según las necesidades de cada operador. Se podría meter mas información por la misma fibra, y eso siempre mola…

Seguro que much@s habeis oido hablar de IP, incluso de Ethernet. Son los dos protocolos famosos por excelencia, universalmente conocidos. Porque en tu casa tienes Ethernet en forma de cables, tarjetas de red…y la Internet es IP, o por lo menos eso te suena. Ya los más aventajados hasta saben que es TCP/IP.

Cuando sólo teníamos teléfono en casa, el mundo era sencillo. El servicio teléfonico es lo que se llama un servicio de conmutación de circuitos. Físicamente había un circuito que conectaba tu casa con la casa del individuo al que estabas llamando. Bueno , vale, en algunos caso podía ser un circuito lógico que no físico. Pero en cualquier caso había un circuito.

Si hablamos de voz, la conmutación de circuitos es estupenda, yo levanto el teléfono y marco, se establece un circuito, hablo y cuando cuelgo se libera el circuito. Pero los datos son otra cosa. Las aplicaciones de datos, especialmente la de comunicación entre máquinas tienen necesidades muy diferentes y por eso pasamos al mundo de los paquetes. Sigue habiendo conmutación de circuitos, para la voz, pero poca y cada vez menos. Está abogada a la extinción, como los dinosaurios, sólo que en este caso el meteorito asesino es la conmutación de paquetes.

Básicamente, conmutar paquetes significa que hay una serie de circuitos previamente establecidos, que siempre están ahí uniendo los elementos de las diferentes redes, unos con otros. Pero la información que se genera en la red está en pequeños trozos diferenciados, y de ellos lo que mas importa es de donde vengo y a donde voy. El camino que utilizo para llegar pasa a ser cuasi irrelevante, y cada uno de los trozos que componen mi información, aunque todos vayan al mismo sitio, pueden, de hecho van, por diferentes caminos.

Esto significa que protocolos como el Ethernet y el IP, conmutación de paquetes, conforman un mundo de caos pseudoabsoluto. Especialmente el IP, que manda los paquetes pero le importa poco que lleguen. Sólo se preocupa de mandarlo por el mejor camino posible. Por eso está ahí su amigo de aventuras, el TCP, para chivarle de los paquetes que no llegan a su destino, de manera que estos sean reenviados.

Las grandes redes Ethernet e IP que están dispersas en el mundo, en realidad no están solas. Tienen un amigo inestimable que garantiza cierto orden en las comunicaciones. Lo que se conoce como Calidad de Servicio e Ingeniería de Tráfico, dos conceptos que vienen a decir que puedo hacer con el tráfico mas o menos lo que me interesa para garantizar los servicios y tener las redes tooo guapas. Este gran jugador en la sombra es el MPLS, tan desconocido como relevante.

MPLS significa MultiProtocol Label Switching, que significa conmutación de etiquetas multiprotocolo. Es multiprotocolo porque puedo poner una etiqueta a lo que me de la gana. Le puedo poner una etiqueta MPLS a una trama Ethernet, y le puedo poner una etiqueta MPLS al paquete IP. Al poner etiquetas a las cosas puedo establecer cierto orden y cierto control en mi enmarañado mundo de bits. Gracias al MPLS podemos disfrutar de servicios IP con garantía.

Pero ojo, cuando salimos a Internet, MPLS desaparece dentro de los dominios de cada operador de telecomunicaciones que lo implemente, que son la gran mayoria. En Internet sigue siendo el modelo TCP/IP, que aunque da mas garantías que el IP a secas, sigue siendo un mundo descontrolado y caótico, como muchas veces percibimos cuando navegamos por el mundo.

El MPLS es el hijo aventajado del ATM, gran protocolo ya en obsolescencia inminente. ATM ha dado paso a una nueva generación que conmuta etiquetas, que en realidad no deja de ser una conmutación de circuitos, virtuales, pero circuitos.

Al final tanto lio para volver a los conceptos originales…

Estudiar la evolución humana implica estudiarlo todo, o casi. Desde la genética y toma genoma pastilla de goma, hasta la tecnología, pasando por la prehistoria, el lenguaje, la política y todo lo que se te ocurra. Por supuesto, como su propio nombre indica, la antropología también tiene que estar en esta lista que tiende a infinito. Y ya sabemos lo que sucede cuando se tiende a infinito…que el infinito se seca.

Para evitar acabar en un campo estéril de sinsentido y sobreinformación, hay que renovarse o morir, y partir en pos, como Indiana, de un objeto perdido, que en nuestro caso no es el arca, pero se le parece.

Dentro del proceso de hominización hay que contemplar de manera intrínseca  la propia evolución como cambio. Las transformaciones que dan lugar a los homínidos deben situarse en el contexto de las transformaciones geológicas y climáticas del globo durante el Pleistoceno,  no, ya no había dinosaurios, así como en la evolución de la flora y la fauna por este motivo. Bien, estos son condiciones necesarias pero no suficientes para la evolución de los homínidos.

Centremos un poco el asunto. Hominización son los procesos evolutivos desde la separación  con los chimpancés…hace como unos 5 millones de años. Esta separación da lugar al género Homo.

El producto de estas transformaciones y consolidaciones denominadas Hominización, no es una especie biológica con habilidades culturales, sino la posibilidad misma de la existencia de tal especie como homo sapiens sapiens. La unidad biopsicosocial de la humanidad sólo puede expresarse desde la localidad histórica y singularmente determinada. Por tanto, también importan aquellos procesos por los que un individuo deviene ser humano, persona, sujeto reconocido y partícipe de una comunidad cultural determinada, que incorpora un proceso de vida biopsicosocioculturalmente construida.

            Podríamos pensar que la evolución human es la larga marcha de los homínidos hacia el saber y el conocimiento, sin embargo, en esta evolución hay muchas líneas discontinuas que no llevan a ningún sitio. Claro que no hemos nacido por generación espontánea y podemos trazar el linaje de nuestros ancestros. Pero deberíamos desechar nuestra visión lineal y progresista de la historia e introducir una brecha para el azar, lo imprevisto, la probabilidad a partir de lo posible, el caos.

Todas las culturas tienen una explicación para la diversidad, la transformación, la permanencia y estabilidad. En la mayoría de las tradiciones culturales los humanos proceden de los dioses. El Antiguo Testamento contiene una historia de la humanidad que parte de un estado prístino de supuesta pureza y ausencia de necesidad, a otro donde van apareciendo el hambre, la enfermedad,… actividades económicas,guerras,las leyes e instituciones, cultos y religiones, el capitalismo, etc. Nuestra modernidad desacralizadora y naturalista, procedente de la filosofía griega, reformulada en el renacimiento y consolidada en lo natural, nos ha desposeído de tan reconfortante origen ubicándonos en lo natural.

La Teoría de Sistemas Dinámicos puede ayudarnos a indagar sobre todo este embrollo del quienes somos, de dónde venimos incluso pueda atisbarse el hacia donde vamos.

Evolución, cultura y complejidad. La humanidad que se hace a sí misma, de Eugenia Ramírez, es un interesante libro que recoge una serie de teorías e investigaciones sobre la evolución humana desde perspectivas biológicas, psicológicas y socioculturales. En Libros Sintetizados (http://wp.me/P1Bnwz-ae) puedes encontrar un resumen detallado de todo esto y mucho mas.

Me refiero a LA NUBE, vulgarmente conocido como Cloud Computing y por tormenta me refiero a la seguridad, bueno, a la falta de.

CA Technologies y Ponemon Institute, ojo no confundir con Pokemon Digievolution Incorporated, han realizado un interesante estudio sobre los proveedores de Cloud Computing, a día de hoy 4 gatos. Sorprendentemente, el 69% de ellos opina que la seguridad es cosa del usuario y el 16% opina que es una responsabilidad compartida. Nos queda pues, aplicando un complejo algoritmo desarrollado en Mathlab, que tan sólo un 15% opina que es cosa de ellos.

Vamos a ver, en tu casa tú eres responsable de tu seguridad, clarito meridiano. Cuando vas a un hotel, normalmente te dicen en algún lugar de la habitación que no se responsabilizan de los objetos de valor que dejes en la habitación, que si tienes algo de valor hagas el favor de meterlo en la caja fuerte. Si te roban el reloj de la mesilla es tu culpa…discutible cuanto menos, pero bueno, quien avisa no es traidor y si te interesa ese hotel pues aceptas las condiciones. Pero si te lo roban de la caja acorazada del hotel…en fin, está bastante claro que la responsabilidad es del hotel.

Subiendo a la nube, el 85% de los que te la dan van y dicen que es cosa tuya si alguien les roba en su caja fuerte,  que los datos son tuyos y si te los hackean es cosa tuya. ¿No da miedo?

Para quien no sepa de qué hablo, en San Google, obispo y mártir podeis encontrar miles de entrada que os explican lo que es la computación en la nube. Resumiendo  mal y pronto es me lo dan todo hecho. Yo contrato servicios y conectividad y todo se realiza en máquinas que están en algún lugar del planeta y alrededores. Con un simple navegador de internet tengo todo lo que necesito.

Primer miedo, mi disponibilidad es la del proveedor que contrate. Si cuelgo mis fotos de las vacaciones y entro al correo pues no pasa nada si tengo que esperarme un ratico. Si soy una empresa que factura miles de millones, ejem, estamos hablando de otra cosa. Si el proveedor no tiene disponibilidad de servicio te piras a otro. Estupendo, todos los proveedores van a invertir para asegurar dicha disponibilidad.

Segundo miedo, la seguridad. Si yo subo las fotos de las vacaciones y las roban, jolines que putada, con el photoshop las pueden crapulear. Si subo datos sensibles y ultrasecretos de mi empresa y las roba algún desalmado y se la vende a mi competencia, es culpa mía en el 85% de los casos. Como llores encima te pego.

No entiendo nada. ¿Qué pasa? ¿Qué los proveedores de servicios en la nube no tienen ni idea de lo que están ofreciendo y lo que implica? ¿Qué los clientes que contratan servicios en la nube no tienen ni idea de lo que contratan y lo que implica?…no entiendo nada de nada…eso debe ser estar en las nubes.

El presidente de Pokemon D. I., concluye que es cuestión de tiempo que la gente demande seguridad…¡qué gran visionario! Yo por ahora prefiero quedarme en la tierra, ya subiré a las nubes cuando pase la tormenta.