Archivos para septiembre, 2011

Hace unos días salió una noticia a la palestra de los foros tecnológicos informativos. Se publicitaba a bombo y platillo que con una técnica innovadora, el cobre podría alcanzar velocidades de 100 Mbps y superiores. Va a ser que no. Pongamos los puntos sobre las ies

El culpable de este subidón de velocidad es una técnica que se conoce como vectoring, que para empezar de novedosa, poco. Se lleva mucho tiempo trabajando sobre la vectorización de los pares de cobre, y los resultados siempre han sido bastante pobres. Las mejoras que producen en la velocidad alcanzable son tan nimias, que no compensan en absoluto el despliegue. Estamos hablando desde el punto de vista de la realidad de una planta existente y desplegada.

El cable de cobre que llega a tu casa no va solo, sino que va dentro de unos cables que engloban desde unos pocos, a unos cientos y hasta unos miles. Las señales que se generan en la familia XDSL son señales multiportadoras, es decir, en vez de llevar un camión enorme para llevar tu información, lo que se hace es llevar una caravana de camiones más pequeños, y cada uno de esos camiones, que son las portadoras, llevan un poquito de la información. Al estar los cables tan juntos unos con otros , y con tantas portadoras por ahí sueltas, se producen interferencias entre los cables llamadas diafonías (crosstalk), que consisten básicamente en que las señales de un cable se cuelan en otro. Con la técnica de vectoring, esto se limita considerablemente. Pero para que funcione correctamente, y las mejoras sean apreciables, la técnica tiene que aplicarse a todos y cada uno de los pares que forman parte del cable. Con que haya uno que no esté vectorizado, las prestaciones bajan.

En países como España, la regulación obliga a compartir el par de cobre, ya que forma parte de la infraestructura previa al periodo de liberalización del sector. Eso quieres decir, que por un mismo cable van los clientes de todos los operadores que den servicio en esa zona, y cada uno de estos cables acaba en las instalaciones de sus respectivos operadores, en unos equipos llamados DSLAM (Multiplexor de Acceso de Líneas DSL). Si quieres saber con más detalle cómo es la red de acceso de cobre, puedes verlo en  Redes de Acceso.

 Esto es lo que se conoce como desagregación de bucle. Y en zonas desagregadas NO ES VIABLE desplegar estas técnicas, porque al quedar pares sin controlar, los beneficios serían ridículos y no compensarían en absoluto el despliegue de la nueva técnica.

A eso tienes que añadir el hecho, de que para aplicar correctamente la técnica, tiene que aplicarse a todos los pares de un mismo DSLAM, y es relativamente habitual que un operador disponga de varios suministradores para sus equipamientos.

Existen armarios de intemperie que se colocan para llegar a zonas que no tienen cobertura desde la central. En estos armarios, no hay obligación de desagregar bucle y por lo tanto sería viable aplicar esta técnica de vectorización. Pero se trata de un porcentaje realmente pequeño sobre la población total. Y a esto se le añade el hecho de que las velocidades son interesantes por debajo del kilómetro de distancia al armario, con lo que reduces aún más lo población potencial a la que ofrecerías el servicio.

La vectorización no es la única técnica que se puede aplicar para incrementar la velocidad en el cobre.

  • El bonding, lleva también muchos años en análisis, y nunca ha salido de ahí, por las dificultades operativas que presenta. Se trata de unir varios pares de cobre, en lugar de uno solo. Algo tan aparentemente fácil, es realmente un quebradero de cabeza desde el punto de vista operativo y logístico, añadiendo que tampoco hay tantos pares libres como para aplicarlo de manera generalizada
  • Técnicas de Retransmisión, que se encargan de volver a enviar los paquetes perdidos. Los mecanismos de protección que se establecen, para garantizar la calidad en la conexión, son bastante restrictivos de cara a la velocidad. Es el dicho vísteme despacio que tengo prisa, en versión eléctronica…si quieres hacer las cosas bien, hazlas despacio. Estas nuevas técnicas conseguirían seguir haciendo las cosas bien, yendo un poco más deprisa. Hay estándares disponibles al respecto, pero lo que no hay es nadie que lo use…probablemente porque las mejoras no compensan las modificaciones a realizar
  • Técnicas de adaptación de velocidad a las condiciones del bucle, para conseguir en cada momento la máxima sincronización posible. Hoy en día, cuando enciendes el módem, sincroniza a una velocidad concreta y mientras no surjan problemas o no apagues y enciendas el módem, sigue con la misma sincronización. Con este tipo de técnicas, hay que asumir que la velocidad máxima que se puede alcanzar variará con el tiempo. En cualquier caso son técnicas que aún no están disponibles y dudo mucho que ofrezca unas ventajas significativas como para incrementar la velocidad de los servicios sobre cobre.
  • Incluso realizando cambios de protocolos de nivel 4 (el UDP por el TCP), se podrían relajar las restricciones que se imponen a nivel físico.  Si tengo un protocolo que me asegura la retransmisión de paquetes, como es el TCP, tengo cierta garantía de que no los voy a perder, acabarán llegando, de manera que a nivel físico, puedo utilizar más portadoras aumentando el ancho de banda correspondiente, aunque estas portadoras no estén en muy buenas condiciones y provoquen errores, que serán solventados por el TCP.

Conclusión, todas estas técnicas son pequeñas aportaciones que no pueden llevar de manera generalizada a un incremento considerable en las velocidades que se pueden obtener con el cobre. Lo que producirán probablemente serán beneficios en los servicios existentes, al aumentar calidad y estabilidad de las señales. Así que si quieres 100 Mbps en tu casa, o te pillas docsis 3.0 tú solo en el barrio, o te pillas fibra hasta la cocina y esperas a que la velocidad comercial suba a 100 Mbps.

 

PD: ACLARACIÓN TÉCNICA SOBRE LA VECTORIZACIÓN DE LOS SISTEMAS DSL

Existe una serie de técnicas que se denominan DSM, Gestión Dinámica del Espectro. Las técnicas DSM tratan de reducir y mitigar la diafonía aplicando algoritmos que optimicen el uso de los recursos disponibles (subportadoras utilizadas, potencia transmitida por subportadora, bits transmitidos por subportadoras,…) a través de la gestión del espectro Estas técnicas se pueden dividir en cuatro niveles, que se definen atendiendo al grado de dinamismo en la gestión de los recursos y al nivel de coordinación existente entre los sistemas DSL.

  • DSM Nivel 1: Se encarga de controlar el ruido impulsivo de un par en concreto, sin afectar a los pares adyacentes. Se controla la densidad espectral de potencia de la señal (PSD) tratando de emplear la mínima potencia necesaria pero manteniendo constante el margen de ruido.
  • DSM NIVEL 2: Se realiza una optimización conjunta de todos los cables del sistema. El ajuste de las densidades espectrales de potencia con el que se transmite cada subportadora en un enlace, se  hace teniendo en cuenta los niveles de potencia con los que se está transmitiendo esa misma subportadora en los pares contiguos. Existe por lo tanto una entidad que coordina todos los bucles de un mismo cable.
  • DSM NIVEL 3 (Vectorización): Implica un ajuste dinámico a nivel de señal basado en la  coordinación entre los usuarios que comparten el mismo cable. Lo que se pretende es eliminar el efecto de la señal interferente por diafonía de dos modos, atendiendo al sentido de la transmisión.  En sentido descendente se utilizará una  precodificación de canal para eliminar la interferencia a la entrada del receptor de los  usuarios. Por el contrario para el sentido ascendente de la transmisión, ya que no se puede actuar sobre los módems de los clientes, se emplearán métodos de decodificación conjunta en el extremo de la central. Por eso todos los pares en la central deben colgar de un mismo DSLAM y en casa del usuario habría que actualizar la versión de SW del módem router, o cambiarlo.
Anuncios

IP, Internet Protocol, es el lenguaje de Internet, con matices, como ya expliqué en la entrada de Las Redes IP.

Este protocolo, se encuentra desplegado en su versión 4, que es lo que se conoce como IPv4. Pero como sucede siempre en el mundo de la tecnología, ésta se queda obsoleta, y demasiadas veces muy rápidamente. ¿Cuantas veces te has cambiado de teléfono móvil? Pues eso.

En el caso del IPv4, ha durado más de lo que muchos gurús decían. Hace años que la amenaza se cierne sobre el IPv4…la espada de Damocles acechaba detrás de cualquier router, pero el IPv4 seguía aguantando el tirón. Hasta que llegó el día en el que ya no pudo más, y ahora sufre una lenta y agónica marcha hacia su desaparición definitiva…la cual probablemente dure más que su propia vida, ya sabemos eso de que las cosas de palacio…van despacio…

¿Cual ha sido el detonante para este vil y cruel destino? Entremos un poquito en harina. El IPv4, como todo protocolo que se precie, se puede equiparar a una caja con dos compartimentos. Uno de ellos se llama cabecera, y ahí es donde se mete toda la información relacionada con la metafísica…¿quien soy? ¿a dónde voy?¿de donde vengo?¿cual es mi tamaño?¿que  tipo de carga transporto?¿cuanto me queda de vida?…típicas preguntas que cualquier paquete se haría. Esta información la necesitan los routers para hacer sus cositas. En el otro compartimento iría la información que realmente interesa al usuario final, las transparencias con gatitos, los correos en cadena…ya sabes.

En el compartimento de la cabecera en el IPv4 existen a su vez varias cajas. La que ha sido responsable de todo este lio es la caja que contiene las direcciones IP, que resulta que es demasiado pequeña. A los gurus que inventaron el protocolo, no se les ocurrió, ni en sus sueños más húmedos, que harían falta más de  4.294.967.296 direcciones IP, es decir, rondando los 4.300 millones de direcciones. Este número tan curioso sale de los 32 bits que caben en una caja de direcciones IP…2 elevado a 32 sale justo eso. Ni más ni menos.

Hace ya unos cuantos años, los organismos que manejan las direcciones dieron la voz de alarma…se nos están acabando las direcciones IP…como la cosa parecía que iba en serio, los que tenían direcciones que ya no utlizaban empezaron a devolverlas. Con eso aguantamos unos cuantos años más. Pero parece que ahora sí que viene el lobo, y todos los grandes operadores de redes IP están haciendo sus números y sus cálculos.

Para solventar el problema, lo que hacemos es cambiar de versión de protocolo IP, nos pasamos a la IPv6, que tiene una caja de bits mas grande…caben 128 bits…eso significan…me mareo sólo de pensarlo, ¿os acordaís del número de Avogadro y de lo que era un mol? Pues más…estamos hablando de 3,4 por 10 elevado a 38 ceros. Nuestro cerebro no está capacitado para asumir tantos ceros. Típicas comparaciones divertidas, la equivalencia entre el IPv4 y el IPv6 sería como comparar el peso de un átomo (da igual, escoge tu elemento favorito de la tabla periódica) con el de una ballena de 80 toneladas, percebe  arriba, percebe abajo.

Aparte de aumentar INCREIBLEMENTE el número de direcciones IP disponibles para repartir por el mundo mundial, el IPv6 presenta otras ventajas adicionales, como una caja de cabecera más simple que facilita el trabajo de los routers, más fácil para gestionar la movilidad, es más seguro…claro una nueva versión siempre mejora a la anterior.

Que quede claro que se trata de una evolución, no de una revolución. Con este cambio, hasta la cesta de las patatas podrá tener su dirección IP, para así mandarte una alerta al móvil avisándote de que se están brotando. Lo que inventa el  sapiens…

Lo más gracioso de todo esto, va a ser cómo se van a ir migrando las redes de un protocolo a otro. Ríete tú del efecto 2000, aquí si que se puede liar parda. Hay diferentes estrategias para hacerlo. Diría que tantas como operadores de redes IP, que si no se acerca al número de estrellas en la galaxia, debe andar por ahí por ahí. Algunos aguantarán con el IPv4 hasta que revienten. Otros irán de vanguardistas y pondrán el IPv6 si no lo han puesto ya, que haberlos haylos. Dentro de cada red se pueden establecer islas de IPv6 rodeadas de IPv4. Puedes hacer que tu red funcione en IPv6, pero luego haces traducciones a IPv4 para conectarte con otras redes o con tus clientes finales. Puedes seguir prestando tus servicios de toda la vida en IPv4, y los nuevos con IPv6. Puedes complicarlo o simplificarlo tanto como puedas o necesites.

Para los humildes mortales, que por ahora no necesitamos un millón de direcciones a repartir entre tus cosas de casa, nos la trae un poco al pairo, y no vamos a salir en masa a la calle a manifestarnos para que todo sea IPv6. Pero hay una cosa que se llama M2M, Machine to Machine, que probablemente sea lo que tire hacia delante de las migraciones. Cada vez son más las máquinas que se interconectan entre ellas para intercambiar información, y cada una de ellas con su dirección IP. La idea es que la patata avise que se brota al servidor de patatas que tendrá el verdulero, para que a su vez se conecte al servidor del mercado central de patatas, para que hable con el hortelano que vaya plantando. Por ejemplo se me ocurre…

Pimientos verdes, italianos, más sabrosos. Al horno, nada de frito, más sano. Rellenos, en crudo, más sano aún. Sano y rico.

Los pimientos conviene cogerlos bien hermosos, para que sea más fácil rellenarlos. Yo tenía la nevera llena de pimientos de la huerta, que son deliciosos, pero pequeñitos y bastante puñeteros para rellenar…pero bueno con paciencia se solventa. Hay que limpiarlos bien, quitarles la cabeza y retirar completamente las semillas, para que el relleno sea cómodo y limpio.

Para preparar el relleno, se pasa por la batidora la cebolleta, los ajos y el perejil. Una vez obtenida la pasta se mezcla con la pechuga de pavo que previamente la habrás picado bien chiquita, o que te lo hagan en la pollería, mejor aún. Se añaden también un buen puñado de semillas de sésamo negro, sal y pimienta.

Se van rellenando los pimientos y se van poniendo en una bandeja de horno. Cuando esté todos, se les añade sal y pimiento y AOVE en poca cantidad. A mí me ha sobrado relleno, así que he hecho unas pequeñas albondiguillas para terminarlo y se lo he añadido a la bandeja.

Se salpimentan los pimientos y se pulveriza con AOVE. Se cubre el fondo de la bandeja con vino y al horno de vapor, mezclando vapor con aire caliente a 160 grados durante unos 45 o 50 minutos. Al incluir el vapor en la cocción, saldrá un salsita estupenda. Si no dispones de horno vapor, en un horno convencional, habría que ponerle calor arriba y abajo a 180 grados durante algo más de tiempo. La idea es que los pimientos queden muy tiernos. Además habrá que añadirle algo de agua además del vino.
Se sirven calentitos y los puedes acompañar de un arroz aromático, como basmati o jazmín, ambos le van estupendamente

¡Buen provecho!

INGREDIENTES

  • Pimientos verdes italianos
  • Pechuga de pollo de corral picada
  • Sal, pimienta AOVE
  • Una cebolleta
  • Dos dientes de ajos
  • Perejil
  • Semillas de sésamo negras
  • Vino

MANUFACTURA

  • Se limpian bien los pimientos, se les quita la cabeza y las semillas
  • Se pone en la batidora la cebolleta, los ajos y el perejil y se tritura todo
  • Se añade a la picada las semillas de sésamo negras, sal y pimienta
  • Se rellenan los pimientos y se van poniendo sobre una bandeja de horno
  • Se añade sal y pimienta sobre los pimentos y se pulveriza con AOVE.
  • Se añade un poco de vino y se mete al horno de vapor mezclando vapor y aire caliente, 160 grados unos 50 minutos
  • En un horno convencional añadir agua además de el vino y ponerlo calor arriba abajo a 180 durante una hora, o hasta que los pimientos estén tiernos
  • Conviene en ambos casos darle una vuelta para que estén con buen color por los dos lados

Algo que para nosotros es tan evidente, como leer y escribir, implican procesos profundamente sociales y psicológicos que conectan los pensamientos, las percepciones, las experiencias y los proyectos de la gente con colectividades más amplias de acción y creencias organizadas. En concreto, la escritura es un medio de comunicación entre las personas, que trasciende el tiempo y el espacio.

Jack Goody, antropólogo inglés del siglo pasado, realizó un trabajo pionero acerca de las consecuencias de la lectura y la escritura en la conformación del pensamiento. Goody tenía claro que las prácticas culturales afectan, no solo el desarrollo de los individuos y a sus modos de pensar, sino también la vida comunitaria. Por esta razón, estaba dispuesto a contribuir a la discusión de las consecuencias cognitivas del uso del lenguaje escrito, sin por ello olvidar las importantes consecuencias sociales y culturales de estas prácticas. Su descripción de cómo la alfabetización ha influenciado la organización de la sociedad provee el punto de partida para la comprensión tanto de la complejidad de la vida social moderna, como de la manera en que ésta se mantiene y evoluciona a través de las prácticas escriturales. Las palabras escritas mueven las mentes, las mentes mueven a las personas y las personas mueven el mundo, social y material.

Entrando en harina

La conciencia depende del conocimiento externo. El conocimiento externo depende de las acciones que el sujeto realiza y ensaya sobre su entorno. Piaget dixit. Ese conocimiento es mediado y organizado en parte por el lenguaje, conforme éste es adquirido, y por cualesquiera recursos que se empleen para la comunicación y la representación. Entre estos recursos destaca con autoridad la escritura. La posesión o no de la escritura es un factor determinante de las formas del pensamiento.

Goody rechaza que las construcciones intelectuales de las culturas llamadas “primitivas” tengan como único objeto orientar a los seres humanos en la satisfacción de sus necesidades materiales o pragmáticas. Dice que la distinción entre necesidades pragmáticas y espirituales es una distinción occidental y que en realidad curar un dolor de muelas es una tarea intelectual que en muchas culturas requiere ajustar tanto las relaciones del hombre con su entorno como con el universo moral y sobrenatural. Curioso.

Para Goody, no sólo hay que considerar los modos de comunicación, sino la manera como esos medios son explotados y dominados socialmente. Marx andaba por ahí cerca cual musa juguetona inspirándole, ya que el paralelismo con los medios de producción es evidente. Esto qué significa, un ejemplo muy claro, ¿has leido alguna vez un documento jurídico? L@s juristas no cuentan para responder a esta pregunta. Habrás comprobado que el lenguaje, escrito, utilizado es realmente farragoso y críptico. Con el uso de este tipo de lenguaje se establece una barrera para separar diferentes grupos sociales. Las condiciones sociales del uso de la escritura son muy variadas, y la diversidad de sistemas de escritura permitirían diferentes procesos cognitivos.

Goody trata de explicar diferentes características atribuidas al pensamiento concreto o prelógico recurriendo a diferencias en el modo de comunicación. Hablamos de características como la inferencia lógica, el razonamiento aritmético  y en cierto sentido, la clasificación.

Para Goody más que tradicional y moderno, los términos que deberían oponerse son oral y escrito. Recordad que cuando hablábamos de Horton, decía que el pensamiento tradicional carecía de alternativas intelectuales. Pero es un hecho evidente que la conciencia de las alternativas es más verosimil en culturas con escritura, donde se puede proporcionar un acceso individual al conocimiento, no sólo de tu cultura, sino de otras culturas y otras épocas. Esto es lo que hace a uno verdaderamente consciente de las diferencias y de las alternativas.

Bondades del lenguaje escrito

Cuando una expresión se pone por escrito, puede ser inspeccionada con mucho mayor detalle, tanto en sus partes como en conjunto, tanto fuera de su contexto como en su lugar. El lenguaje escrito puede ser escrutado y criticado de manera bastante diferente a cómo puede serlo el lenguaje verbal. La escritura hace al habla objetiva, al convertirla en un trozo de inspección tanto visual como auditiva.

Es aquí donde se encuentra, al menos de manera parcial, el origen de la lógica y de la filosofía. La lógica está estrechamente unida a la escritura en su sentido formal, ya que la formalización de proposiciones, abstraída desde el flujo del habla y dada en letras o números, nos conduce al silogismo. La lógica simbólica y el álgebra, dejando a parte el cálculo, son inconcebibles sin la existencia previa de la escritura. Las sociedades tradicionales no están marcadas tanto por la ausencia de pensamiento reflexivo como por la ausencia de herramientas propias de la meditación constructiva.

Las operaciones aritméticas se realizan de manera diferente en las culturas que poseen un sistema para la representación gráfica de las operaciones que en aquellas que carecen de él, y en particular la división es prácticamente imposible en culturas ágrafas. Las operaciones aritméticas en las culturas orales están especialmente ligadas a la naturaleza de los objetos sobre los que se busca el resultado aritmético. No se cuentan o suman igual conchas de cauri que vacas. De este modo se puede decir que la aritmética de estas culturas consta de ejercicios de pensamiento concreto.

Según Goody, la actitud mágica hacia las palabras es más fácil de encontrar en las culturas orales porque el lenguaje está más próximo a las ocasiones materiales de uso, mientras que en un texto escrito, en el cual la palabra está divorciada de la ocasión, es más fácil apreciar que carece de poder sobre la materia. Aunque en algunos “sistemas”  la palabra escrita tiene mayor poder sobre la materia que la palabra hablada. Volvemos al ámbito jurídico. Las multas, decretos, etc. parecen tener un gran poder sobre la materia y no tiene nada de particular que a partir de esto haya quien forme la creencia de que se puede extender ese poder a voluntad de ciertas personas, como así ocurre de hecho, aunque no de la manera como imaginan los clientes o usuarios del mago.

Lenguaje escrito y ciencia

El uso reflexivo de los conceptos que facilita la escritura, tiene un gran papel en la ciencia. Kuhn dice, entre otras cosas, que el lenguaje de la ciencia sí está conectado a las ocasiones de uso, y que éstas no se pueden descomponer, sino que poseen la estructura que alguna teoría permite describir, de manera que un vocabulario altamente teórico puede estar ligado a ocasiones y ejemplos muy concretos.

La importancia de la situación concreta en el uso de las palabras está ilustrada por la importancia que tienen los instrumentos y las representaciones gráficas en la ciencia. Cuando existe una teoría explicativa de un instrumento o de una situación experimental, ésta se puede representar mediante diagramas muy idealizados y simplificados. A este tipo de ocasiones se refiere Kuhn cuando habla de cómo se adquiere el compromiso con un paradigma durante la educación del científico. Pero cuando la situación experimental o el instrumento no están explicados por una teoría compartida, el realismo de las representaciones se acentúa, y la materialidad de los objetos cobra mayor importancia en quienes se comprometen con ellos, por ejemplo en su uso como instrumentos científicos.

Episodios de este tipo han ocurrido en la historia de la ciencia. Durante algún tiempo la óptica de Newton dependía según sus detractores de los prismas particulares que Newton usaba. No se podía pedir a un óptico que se comprometiera con una representación esquemática de un prisma óptico.

Por otro lado, en las culturas “frías”, como las llama Lévi-Strauss, no parece existir una especulación sobre las entidades que componen el mundo sobrenatural. Se trata de aquellas sociedades que organizan sistemas de clasificación y de concepción con los cuales se resisten al paso del tiempo, tratan de contener, de exorcizar el transcurrir del tiempo a partir de determinados conceptos y determinados rituales que están destinados a preservar la estructura y el orden que la comunidad se ha dado más allá de los cambios que el tiempo impone.

Goody no discute las relaciones de la teorización científica con la tecnología ni con el mundo empírico como un rasgo especial de la ciencia moderna, y por lo tanto tampoco se siente obligado a decir nada sobre las relaciones entre las entidades sobrenaturales y el mundo en el que viven quienes las invocan con ocasión de enfermedades o parentesco o lo que sea. Goody declara que no es relativista radical, pero relativista o no, no basta con decir que las entidades sobrenaturales simplemente forman parte de ese mundo, es necesario mostrar qué papel desempeñan en la curación de enfermedades, en el inicio de las guerras, en el castigo del crimen, en los ritos de paso, etc.

Aunque Goody reconoce que la escritura no es el único factor a tener en cuenta en el origen de la ciencia, ni las diferencias entre culturas con y sin escritura explican todas las diferencias, en la medida en que pretende excluir otras explicaciones dadas por antropólogos anteriores, a su trabajo le falta para ser convincente explorar el papel del mundo de lo invisible en las culturas orales.

Con Goody terminamos la primera parte de este recorrido a través de la Filosofía de la Ciencia. Si quieres ver el contenido completo de lo que se irá publicando, lo encontrarás en Epistemología

A finales de Octubre comenzaremos el segundo bloque, que tratará sobre la historia del pensamiento sobre el método. La inducción y deducción aristotélica, la deducción euclidiana, el método cartesiano, el inductivismo de Mill y el positivismo lógico.

Mientras tanto, puedes encontrar todas las entradas recopiladas en Internauta Sin Pauta

Saludos Prelógicos

Filotecnóloga

Costillas de Cerdo Adobadas al Horno

Publicado: 28 septiembre, 2011 en Cocina
Etiquetas:, ,

¡Dame ajos, orégano, laurel, pimentón y vinagre y adobaré el mundo!…eso soñaba axax12 el otro día, a grito pelao…bueno, pues el mundo, lo que se dice el mundo, no creo que me de tiempo a adobarlo, pero el cerdo, enterito. Ya adobamos los solomillos, ahora vamos a por las costillas, que sí cabe están aún más buenas.

En este adobo, hay una pequeña variación respecto al usado para los solomillos. La diferencia fundamental es que en el caso de los solomillos los ingredientes iban enteros, y para las costillas me gusta más pasarlo todo por la batidora. Así que los ajos, el orégano, las hojas de laurel, el pimentón y el vinagre todo a la batidora, hasta que se consiga una pasta hogogénea. Si le añadimos a la batidora la sal gorda y la pimienta negra, se repartirán mucho mejor todos los ingredientes por la carne.

Las costillas bien hermosas, y separadas. Para otras formas de cocinarlas prefiero usar el costillar entero y partirlo una vez asado, pero para el adobo, al estar individuales, se impregna mejor de los aromas. Se lavan bien y se van embadurnando por todas partes con el adobo, puedes usar un pincelito, pero recomiendo hacerlo con las manos, te pringas sí, pero el resultado es mucho mejor, porque de paso le das un masajito a la carne con el adobo para que se vayan conociendo. Se guarda en un recipiente hermético y a la nevera 24 horas.

Al día siguiente se sacan las costillas y se colocan sobre la rejilla del horno, con una bandeja debajo para que recoja todo lo que vaya cayendo. Se puede rociar con un poco de AOVE, pero yo no lo hago, las costillas ya tienen suficiente grasa por sí sola. Se mete en el horno, arriba y abajo, unos 190 grados, hasta que esté dorado, unos 50 minutos. Lo mejor es que le eches un vistazo de vez en cuando y estarán cuando tu estómago empiece a gruñir al acercarte al horno.

Se puede acompañar con ensalada, con patatas de mil formas…depende de lo comilones que seais. A mí me gustan acompañarlas de un buen vino tinto con cuerpo, por ejemplo un Callejo crianza, y nada más…ya sabeis eso que repito tanto…cada uno con sus cadaunadas.

INGREDIENTES

  • Costillas de cerdo
  • Adobo
    • Sal y pimienta
    • Orégano
    • Pimentón dulce
    • Laurel
    • Vinagre
    • Ajos

MANUFACTURA

  • Se prepara el adobo batiendo todos los ingredientes
  • Se cubre bien las costillas y se macera durante 20 horas
  • Se meten al horno sobre la rejilla, calor arriba y abajo 190 grados unos 50 minutos.
  • Morirse de gusto

Las Redes IP

Publicado: 27 septiembre, 2011 en Tecnología
Etiquetas:, , , ,

Internet es IP, seguro que alguna vez habrás escuchado algo parecido a esto. En realidad IP significa Internet Protocol, es decir, protocolo entre redes. Internet, la que se escribe con mayúscula, en realidad no es sólo IP, es un modelo TCP/IP. Vamos a ver todo esto que significa.

El protocolo IP es un protocolo muy potente para conectar diferentes redes, y para encaminar el tráfico hacia el destino adecuado. Los routers, que son los equipos de red que hablan IP, funcionan como los carteros. Imagínate cómo funcionaría la oficina de correos,sí, la de toda la vida, esa que ya nadie usa. Todas las cartas que llegan son separadas, por ejemplo, en cuatro grupos: locales, provinciales, nacionales, internacionales. Cada uno de esos cuatro grupos a su vez volvería a dividirse en por ejemplo en el caso de las internacionales, a Europa, a América, etc. Esa clasificación se realiza en función del destino de las cartas, que te recuerdo que aparece en la parte delantera del sobre. ¿Cuanto haces que no envías una?

Los paquetes IP serían como una carta con su sobre, y tendría la siguiente información:

  • el destino, es decir, hacia donde va ese paquete, su dirección IP destino,
  • el remitente, es decir, quíen escribe la carta o quíen está enviando el paquete IP, la dirección IP origen.
  • la carta propiamente dicha, lo que va dentro del sobre, iría dentro del paquete IP, sería la información útil que se está transportando, tu correo electrónica, la página del banco…

El router, que haría de cartero, cogería un paquete IP, miraría su dirección IP destino, y se iría a buscar en una tabla que tiene a buen recaudo y que se llama tabla de routing. En esta tabla aparecen todos los posibles destinos que se pueden alcanzar desde ese router, agrupados en lo que se llama siguiente salto o next hop.

Es decir, IP seleccionaría, de todos los routers vecinos con los que está conectado directamente, el adecuado, y le lanzaría el paquete, pero sin prestar atención a si el paquete llega correctamente a su destino o no. Su trabajo ha terminado, al menos de momento. Si Internet fuera solo IP no funcionaría, porque los paquetes perdidos nunca llegarían a su destino.

Ahora hablamos de los acompañantes del IP, porque aunque una red se diga de ella que es una red IP, este protocolo no es el único que se habla en dicha red. Está acompañado de muchos y diversos compañeros de batalla, y entre todos hacen posible la comunicación a través del mundo.

Tendríamos un protocolo que se llama TCP (Transport Control Protocol) que estaría mirando por encima del IP, y viendo que los paquetes que el IP manda llegan correctamente a su destino. Si hay algún problema y el paquete no alcanza su destino final, el TCP le dirá al IP, oye vuelve a lanzar este paquete porque no ha llegado, y el IP, que es muy obediente, retransmitirá el paquete de nuevo. Este es el modelo que funciona en Internet, al menos por ahora…

Para aplicaciones como navegar por Internet, da igual que un paquete llegue antes que otro, o que no lleguen ordenados tal y como salieron del origen. Pero hay otras aplicaciones, como por ejemplo la voz y el vídeo, en las que no tiene ningún sentido que lleguen los paquetes fuera de su momento temporal. Si un paquete se pierde, es mejor que no se retransmita, porque cuando llegue a su destino, no va a poder ser utilizado, ya que la frase a la que pertenece o el fotograma del que forma parte, ya ha pasado. En estos casos no se utilizan protocolos como el TCP, que no son válidos para aplicaciones en tiempo real, sino que en su lugar se utilizan protocolos del tipo UDP (User Datagram Protocol), que no retransmiten los paquetes perdidos y se centran en enviarlos cumpliendo los plazos.

El IP también se rodea de lo que se denomina protocolos de routing, que son los que rellenan la tabla de routing, recordemos que era donde el router miraba para saber por donde tenía que sacar el paquete que estaba analizando. Hay muchos tipos de protocolo de enrutado, y siguen diferentes filosofías, desde los más simples como el RIP (Routing Information Protocl), que rellenan la tabla de manera estática e inamovible, a los más complejos como el OSPF (Open Short Path First) o BGP (Border Gateway Protocol) que hablan entre ellos para saber en cada momento cual es el mejor camino para llegar a cualquier sitio. En este caso, por lo tanto, las tablas de rutas están continuamente actualizándose, y así el router sabe cual es el mejor camino para llegar a cada destino. Es como tú cuando conduces, sueles coger una ruta habitual, pero si escuchas en la radio que hay un atasco, o es viernes y tu experiencia te dice que lo habrá, seleccionas otro camino alternativo, que son más kilómetros pero vas a tardar menos tiempo. Eso es lo que hacen los protocolos de routing.

También tenemos al amigo MPLS (Multiprotocol Label Switch) que corre en toda red IP que se precie. El protocolo IP necesita de mucha capacidad de procesado, y la escalabilidad es complicada cuando tenemos miles, millones de redes a las que podemos llegar. Por eso, en los núcleos de las redes IP, no se habla en IP, se habla en MPLS, y sólo en los bordes de la red IP, que son los que se conectan con otras redes IP, se habla IP puro y duro. Con el MPLS en el núcleo de la red, tengo más control sobre mi tráfico, ya que lo que hace es etiquetar caminos, y todos los paquetes que vayan por el mismo camino tendrán la misma etiqueta. Sería algo parecido a este ejemplo, imagínate que te vas con todos tus amigos de fin de semana. En vez de ir 20 coches, como todos vais al mismo sitio, alquilais un bus. Los routers, que también hablarán MPLS, en lugar de mirar todas y cada una de las direcciones IP destinos de todos y cada uno de los paquetes, sólo tendrá que mirar la etiqueta para decidir el camino por el que envía el paquete.

Internet, no es ni mas ni menos, que todas las redes IP del mundo interconectadas entre ellas…todas o casi todas. Cada red IP tiene asociado bloques concretos de direcciones IP, de manera que sabiendo la dirección IP, sabes donde tienes que ir….algo parecido a los códigos postales que usamos en las ciudades. Juntando todos estos protocolos conseguimos un medio maravilloso de comunicación con posibilidades todavía desconocidas.

Falafel con Salsa de Yogourt

Publicado: 27 septiembre, 2011 en Cocina
Etiquetas:, , , ,

Falafel es una típica comida del norte de África y del Oriente Próximo. Con toda esta extensión geográfica podreis imaginar que hay muchísimas variaciones. Ni siquiera podría decirse que el Falafel es una albóndiga de garbanzos, porque en países como Egipto o Libia mezclan el garbanzo con judías, y en países como Siria lo encuentras sólo a base de alubias, aunque también encuentras con garbanzos…Para gustos colores.

Yo he probado varias formas diferentes de prepararlos, y aquí os pongo mi favorita.

Los ingredientes son muy fáciles de encontrar y disponer de ellos. La base serán los garbanzos, que hay que poner en remojo la noche de antes. Además necesitaremos una cebolleta, un par de ajos y un buen manojo de cilantro, que se puede sustituir por perejil si no te gusta el cilantro o no lo encuentras, pero ya estarás perdiendo un toquecillo exótico interesante.

A eso hay que añadirle las especias que usaremos, que serán canela molida, semillas de cilantro, pimienta negra molida y semillas de cominos.

En el vaso de la batidora se añaden todos los ingredientes anteriormente citados y se bate todo bien hasta obtener una pasta homogénea, no debe quedar ninguno de los ingredientes enteros o en trozos, sino haciendo pequeños grumitos.

A la masa se le puede añadir levadura, en cuyo caso conviene dejar reposar, yo no suelo echarle, pero sí lo meto en la nevera algo de tiempo para que la masa al enfríarse sea más fácil de manejar.

Cuando vayamos a preparar los falafel, hay que coger con una cuchara pequeña pedacitos de masa y darles forma primero de bola y luego aplastarlas un poco. Se pasan por harina de garbanzo y se fríen en una sartén con abundante aceite y muy caliente.

Se van sacando sobre papel absorbente para que suelten la grasa sobrante, aunque si sigues las indicaciones, casi no absorbe grasa. Deben quedar doraditos y crujientes.

Para acompañarlos se prepara una crema de yogourt, muy fácil de hacer. Se bate un yogurt natural con un diente de ajo, un poco de hierbabuena, sal y pimienta. Listo.

El falafel se moja en el yogourt y ¡ñam ñam!

INGREDIENTES

  • FALAFEL
    • 1/4 kg Garbanzos
    • 1 Cebolleta pequeña
    • Cilantro
    • 2 Ajos
    • Comino
    • Canela
    • Semillas de Cilantro
    • Sal
    • Pimienta
    • Harina de garbanzo
    • AOVE
  • SALSA DE YOGOURT
    • Yogur natural
    • Hierbabuena
    • Ajo
    • Pizca de sal y pimienta

MANUFACTURA

  • Los garbanzos se ponen en agua la noche de antes
  • Se pone en una batidora todos los ingredientes excepto la harina de garbanzo y el AOVE y se tritura bien hasta que quede una pasta espesa.
  • Se hacen pequeñas bolitas con la masa, en forma de albóndigas o un poco aplastadas y se pasan por harina de garbanzo.
  • Se van friendo en AOVE muy caliente y abundante
  • Se van sacando sobre papel secante cuando estén dorados
  • Se acompaña de una salsa de yogurt que se realiza batiendo todos los ingredientes
  • Se comen mojándolos en la salsa de yogourt. Fríos, calientes o templados

Esta entrada es todo un clásico, creo que es el aperitivo más repetido de todos, y siempre quieren volver a probarlo. Es muy fácil de hacer, se puede dejar medio preparado, así que te permite estar con los invitados en caso de que los tengas, y no estar pendiente de la cocina. Por supuesto la combinación es maravillosa, y no sale muy caro. Así que ¡ponle peguitas!

Empezamos por el crujiente de jamón, que lleva algo más de tiempo, pero se hace sólo. En una bandeja de horno se pone un papel de horno, se colocan encima las lonchas de jamón serrano, que tendrán que ser lo más finas posible. Sobre las lonchas se coloca otro trozo de papel de horno, y por encima algo que tenga mucho peso.

El crujiente de verdad se realiza por debajo de 100 grados, y puede tardar de 3 a 5 horas…como no solemos tener paciencia, ni tiempo, se pueden hacer las versiones acelerada o la ultraacelerada…obviamente cuanto más rápido sea el proceso, menos calidad tendrá el crujiente, pero si el jamón está bueno, te aseguro que estará bien rico de cualquier manera. La versión acelerada consistiría en poner el horno no más de 150 grados, en 40 minutos o algo así estaría listo. La versión ultrarápida es ponerlo directamente en el microondas un par de minutos como mucho. Obviamente hay diferencias, pero bueno, cada uno tiene que adaptarse a sus posibilidades y tiempos.

Los huevos de codorniz se hacen a la plancha o fritos, personalmente me gustan más a la plancha para este canapé, quedan más limpio los sabores ya que no coje nada de aceite y es la grasa del jamón la que prevalece. Se le puede añadir un poco de pimienta, pero sal no es necesario, ya que el jamón aporta la que hace falta.

Tanto el crujiente como los huevos los puedes tener preparados de antemano, no hay ningún problema, mejor todavía si los mantienes calientes en el horno, pero sin pasarse, porque el huevo se resecará, en cualquier caso tibios o fríos (pero no de nevera) están bien buenos.

Pero montar el canapé se realiza en el último momento, porque aunque éste en concreto no tiene casi humedad al llevar el crujiente debajo, el pan tiende a ponerse manido. Así que para que esté crujiente y en su punto se monta justo antes de servirlo. Se coloca sobre una ministosta de pan tostado, queda mejor si son muy finitas y crujientes. Sobre el pan se ponen unas láminas del crujiente de jamón y el huevo encima. Ya verás como gusta a todo el mundo.

INGREDIENTES

  • Huevos de codorniz
  • Jamón Serrano
  • Tostas de pan fino
  • AOVE
  • Pimienta

MANUFACTURA

  • Los huevos de codorniz se hacen a la plancha o fritos
  • El jamón se hace en crujiente
  • Se monta sobre la tosta de pan unas láminas de crujiente de jamón y un huevo de codorniz
  • Servir inmediatamente

MOTIVACIÓN Y ÁMBITO DEL PROYECTO

El OIF (Optical Internetworking Forum ) creó un proyecto 100G DWDM con la intención de acelerar la disponibilidad de la tecnología de transmisión a 100 Gbps para redes DWDM de larga distancia. Estableció un documento marco donde se recoge lo que se espera del desarrollo de estas interfaces:

  • La modulación  escogida: DP-QPSK con detección coherente  y el porqué de esta elección.
  • Identifica una arquitectura funcional para un módulo transceptor y la descompone en diferentes bloques
  • Añade los aspectos más relevantes para la implementación, para los que hay que llegar a un acuerdo, de manera que se fundamente  una interoperabilidad básica

Las aplicaciones de Red tienen como meta y objetivos los siguientes aspectos:

  • Los canales de 100 Gbps, requieren intrínsecamente una OSNR 10 veces superior a los canales de 10 Gbps. Esto supone unas restricciones de tolerancia muy exigentes respecto al ruido de emisión espontánea de los amplificadores ópticos existentes.
  • Además es necesario que tanto el coste como el consumo de la interfaz de 100Gbps sea menor que 10 veces el coste de una interfaz de 10 Gbps,
  • El requisito de mantener la rejilla de 50 GHz hace que sea necesario el uso de una modulación mas eficiente que la de las interfaces de 10 Gbps
  • El requisito de tolerancia mas alta al ruido implica escoger una modulación y un receptor que tengan la tolerancia al ruido mas alta
  • FEC es una herramienta adicional que permite esta mejora,
  • La industria ha aprendido de la experiencia con los 40 Gbps que con técnicas ópticas pueden mitigarse la CD yla PMD, pero incrementando costes y espacio.
 ARQUITECTURA DEL TRANSCEPTOR

MÓDULO DE TRANSMISIÓN DP-QPSK

El proyecto asumió la modulación DP-QPSK (Dual Polarization Quadrature Phase Shift Keying ) con recepción coherente como la óptima para cumplir todos los requisitos impuestos, fundamentalmente debido a la baja velocidad de símbolo que reduce el impacto de la dispersión cromática además de una mejor eficiencia espectral.

A continuación, detallamos el modo de funcionamiento de un módulo de transmisión DP-QPSK:

  • Un láser de transmisión genera la señal de luz que se divide en cuatro componentes, dos para la polarización horizontal y dos para la polarización vertical.
  • El desplazador de la polarización (Pol Rot) gira una de las señales en relación con la otra.
  • Después ambas señales se combinan para generar una única señal
  • En cada polarización hay una señal en fase y la otra en cuadratura de fase y cada una de ellas requiere de un modulador para codificar los datos.
  • Los moduladores representan una interesante oportunidad de  reducción de coste y tamaño, ya que son candidatos a la integración como dispositivos. El OIF ha creado un proyecto específico para desarrollar este aspecto.

 MÓDULO DE RECEPCIÓN DP-QPSK

El módulo de recepción DP-QPSK consiste en una serie de componentes ópticos pasivos que forman un demodulador, seguido de detectores ópticos y amplificadores de transimpendancia. Se pueden aplicar tecnologías de integración para reducir costes y tamaños del transceptor.

El OIF  creará especificaciones para acuerdos de implementación para el módulo de recepción integrado.

FEC

La necesidad de una OSNR 10 veces superior a la de las señalas de 10 Gbps se enfocará mediante la combinación de varios métodos, uno de los cuales serán las técnicas FEC.

Los enlaces de 10G usan FEC que producen ganancias de 8.5 dB, por lo que hay que introducir FEC de mayor ganancia para acercarnos a la OSNR requerida en los 100 Gbps. En cambio el límite de Shannon impide que se cubra por completo el recorrido necesario, por lo que los diseños de FEC sólo podrán acercarse asintóticamente a dichos límites.

Se obtienen diferentes ganancias con FEC en función de la velocidad de las cabeceras, pudiendo adoptar dos técnicas diferentes de decodificación:

  • En la decodificación dura hay un discriminador que elige 0 o 1
  • En la blanda, divide el espacio de la señal en franjas mas pequeñas y se usa una información mas rica para elegir entre 1 y 0

Parece que el FEC de decisión suave presenta más ganancia, pero también impone mayores requisitos en la transferencia de datos entre el DSP y el decodificador FEC

Se necesita trabajo adicional para identificar mejoras en la ganancia y para ello el OIF ha creado un proyecto específico que ha originado en mayo de 2010, como primer paso el Whitepaper del FEC.

Algunas consideraciones de cara a la implementación serían:

  • Las implementaciones que usan un overhead del 7% (típicos en la transmisión de 10Gbps) pueden incluir el FEC dentro o fuera del módulo, ya que la interfaz eléctrica de alta velocidad podría asumir el incremento de velocidad
  • Los FEC que utilicen menos de un 7% de overhead tienden a usar codificación dura
  • Los FEC que utilicen implementaciones de mas de 7% de overhead tienen que ser instalados dentro del módulo (sin interfaz con el DSP) debido a las limitaciones de velocidad del mismo.

MÓDULOS ELECTROMECÁNICOS

Respecto a los módulos electromecánicos, las especificaciones incluirán

  • Tamaño máximo
  • Disipación máxima
  • Interfaz eléctrica
  • Conector
  • Protocolo de control

 Todos los bloques estarían incluidos en una única placa de circuito impreso

El módulo electromecánico incluye láser, fotónica integrada, codificadores QPSK, convertidores A/D y DSP, puede incluir opcionalmente el FEC cuando sea ventajosa su integración.

TRANSMISIÓN

  • Los datos se enmarcan de acuerdo a las especificaciones de OTN antes de aplicar el FEC
  • La señal entonces pasa al módulo transceptor
  • Los datos se convierten para controlar los moduladores ópticos
  • Un láser de transmisión proporciona la fuente de luz para los moduladores

RECEPCIÓN

  • La señal entrante se mezcla con un oscilador local
  • Demodulado sus componentes, detectado, amplificado y digitalizado entonces llega al DSP
  • Un flujo de bits llega al decodificador FEC que puede estar dentro o fuera del módulo
  • El paso final es el entramado OTN

Os presento a Horton

En la década de los hippies, el señor Robin Horton, antropólogo inglés, se enfrentó a la corriente dominante por aquella época, el relativismo cognitivo. Propugnó que todos los criterios de racionalidad que constituyen la base de funcionamiento del sentido común se hallan predeterminados en la constitución biológica de la especie humana, por lo que deberían ser los mismos para todos los grupos y sociedades.

Por aquellas, esta idea parecía bastante especulativa, sobre todo por la masiva avalancha de datos sociológicos que operaban en su contra. Tres décadas más tarde, sin embargo, la situación estaba siendo invertida debido a los esfuerzos de la psicología y otras ciencias cognitivas para respaldar las tesis innatistas. Básicamente lo que Horton pretende es utilizar su concepción determinista del sentido común para erradicar el relativismo cultural de la escena antropológica. Se basó no en el pensamiento primitivo en general, sino en las tribus africanas en particular.

Horton sostiene la idea de que el valor cognitivo de las creencias mágico-religiosas tradicionales africanas, puede ser evaluado con absoluta neutralidad, utilizando los mismos criterios que rigen la elección de teorías en el ámbito de la ciencia occidental. Su idea fundamental es que el pensamiento mágico-religioso tradicional africano, viene a ser una manifestación de pensamiento teórico sustancialmente equivalente al pensamiento científico, cuyo cometido natural residiría en la explicación, predicción y control de aquellos fenómenos que el pensamiento ordinario no consigue dominar.

El mecanismo explicativo consistiría, en ambos casos, en postular la existencia de un puñado de entidades y procesos subyacentes a la experiencia con el que se intenta dotar de orden y regularidad a esos fenómenos. Pero el pensamiento teórico no cuenta, según su entender, con unos recursos cognitivos propios e independientes de los que ya tenía disponibles el pensamiento de sentido común, por lo que, para ser aceptadas, sus propuestas respectivas tienen que mostrar que son adecuadas a las exigencias lógicas y empíricas ordinarias, que, al ser universales, servirían para garantizar la neutralidad de su valoración.

La Filosofía de la Ciencia como Inspiración de la Teoría Antropológica

Como Ernst Mach, George Orwell, o los positivistas lógicos, Horton piensa que la ciencia se caracteriza por sus métodos y no por sus contenidos. Aunque la ciencia sea una institución que ofrece ciertos productos, entre ellos las teorías, que son socialmente valiosos porque intervienen en la obtención de adelantos tecnológicos, lo realmente esencial de la ciencia es su método crítico y experimental.

Cuando estudia el pensamiento tradicional africano, por lo tanto, busca las semejanzas y las diferencias con la ciencia, no en los contenidos sino en los aspectos metodológicos. Lo cual le lleva a buscar un marco conceptual fuera de la antropología,  y lo encuentra en la filosofía de la ciencia.

El papel principal de las cosmologías africanas es, según Horton, el mismo que el de la ciencia: explicar. Y explicar consiste en encontrar unidad, simplicidad, orden y regularidad bajo la diversidad, complejidad, desorden y anomalías aparentes de los fenómenos. La objeción evidente de que tales cosmologías contienen multitud de entidades personales caprichosas la responde señalando que esas multitudes suelen agruparse en muy pocas clases y que, lejos de ser caprichosos, los dioses, héroes, antepasados, etc., tienen funciones específicas que cumplen de manera más o menos predecible.

Una vez que a esas entidades se les reconoce su papel explicativo, se pueden disipar algunas de las perplejidades que venía a intentar solucionar la ley de participación de Lévy-Bruhl, que recordemos que venía a decir que en las representaciones colectivas de la mentalidad primitiva, los objetos, los seres, o los fenómenos pueden ser, de una manera incomprensible para nosotros, a la vez ellos mismos y otra cosa que ellos mismos. En el hombre moderno, la participación no tiene un papel tan decisivo como en el hombre primitivo, porque el hombre moderno distingue más adecuadamente los planos de referencia a través de los cuales se mueve edificando así su mundo propio, que es primero pensado, definido y calculado, para posteriormente ser proyectado y plasmado en la realidad.

¿Cómo es posible que algo sea a la vez un espíritu y un objeto natural? Horton considera el papel de las entidades teóricas en las explicaciones científicas y encuentra que, respecto de ellas se puede plantear, como de hecho se ha planteado, la misma perplejidad: ¿Cómo es posible que una mesa sea a la vez un conglomerado de inobservables? Algunos filósofos empiristas se han pronunciado por la realidad de los observables, asignando el papel de ficciones útiles o de convenciones o de meros compendios a las entidades teóricas, mientras que otros han sostenido la realidad de las entidades teóricas, o de las cualidades primarias, y han declarado “aparente” el mundo de lo que empíricamente aparece. Horton, acude a la que en su época considera la resolución más actual del problema: las reglas de correspondencia entre términos teóricos y observacionales ideadas por el positivismo lógico.

Recordemos que los positivistas lógicos, o empiristas,  quieren basar la producción del conocimiento en observación. La investigación científica siempre tiene que comenzar con la observación parcial o experiencia personal. La observación en general, así como los propios objetivos y experimentos de dicha observación, han de ser seleccionados en base a elecciones subjetivas, es decir, intervienen  juicios de valor. Una vez establecida la base de la observación han de ser registradas y descritas sistemáticamente en forma cualitativa y cuantitativa, en base a esquemas de clasificación, representaciones gráficas y algebraicas para que, a través de métodos generalizados primordialmente inductivos, llegar a generalizaciones adecuadas. A continuación, se podrían realizar los análisis y las deducciones pertinentes. Una vez finalizada esta fase, se pasaría a la interpretación y construcción del modelo, donde se establece la total coordinación entre los factores teóricos y experimentales mediante reglas de correspondencia o el establecimiento de hipótesis.  Los empiristas basan por tanto su doctrina sobre la estructura lógica del conocimiento científico.

El sentido común y la teoría científica

La explicación científica proporciona conexiones causales que no son evidentes desde el punto de vista del sentido común. Y lo mismo que la teoría científica proporciona explicaciones causales que la limitación a los conceptos del sentido común no permitiría. El pensamiento religioso tradicional africano sitúa los acontecimientos en una red causal más amplia que el sentido común. Horton defiende esto y defiende la eficacia de este tipo de teorización religiosa, sobre todo en el terreno de la explicación de la enfermedad, que es el asunto donde es más común la búsqueda de causas místicas. Estas causas relacionan la enfermedad con perturbaciones sociales del entorno del paciente, y Horton da cuenta del éxito de los diagnósticos y de los tratamientos logrados por los curanderos tradicionales como un resultado de factores tales como la componente psicosomática de las enfermedades.

Una vez adoptada una cosmología llena de entidades y fuerzas personales, su lenguaje se impone en la descripción y explicación y, de este modo, las causas de las enfermedades son vistas como el producto de las intenciones de agentes que retribuyen a quienes han afectado el orden social. El salto a las explicaciones místicas se producen cuando el sentido común no puede hacerse cargo de la situación, igual, dice Horton, que en el mundo occidental el recurso a la ciencia se ofrece cuando se necesita situar los acontecimientos en un contexto causal más amplio, que proporciona la teoría, pero no el sentido común.

Las diferencias entre el pensamiento tradicional africano y la ciencia las considera Horton en dos partes: de un lado las que tienen que ver con la falta de alternativas intelectuales y de otro las que tienen que ver con la ansiedad.

Cuando no hay alternativas intelectuales, renunciar a un matiz del sistema significa renunciar al sistema entero, ya que cuando no existen alternativas, el holismo suele ser una característica intrínseca del único sistema existente. Además, si no hay alternativas, no tiene sentido preguntar a un sujeto perteneciente a una de estas culturas cuáles son sus ideas “en general”, porque las ideas están conectadas a las ocasiones en que se emplean.

Cuando las prácticas y creencias religiosas son únicas, se produce una sacralización de las mismas, y su cuestionamiento produce una gran ansiedad. Sería mucho más llevadero si ese ataque se produce en un contexto donde existen alternativas. Los pensadores tradicionales muestran una clara tendencia a buscar explicaciones ad hoc de los fallos de la teoría: un tratamiento médico puede fallar por intervención contraria de un hechicero, o por incompetencia del curandero, pero nunca porque el sistema intelectual sea erróneo. No se registran los fracasos, y, aunque en la ciencia también se practiquen los remiendos ad hoc de las teorías o de las circunstancias que concurren en la contrastación de una teoría, el científico tiene conciencia de que las teorías son productos históricos que muchas veces acaban por ser abandonados y las teorías vigentes tienen alternativas concebibles. Esto evita ver el abandono de una teoría como un temido “salto en el caos”. El pensamiento tradicional no busca repetir las circunstancias en que se originó un acontecimiento y ver qué modificaciones afectan o no al resultado, etc. Sobre todo, el pensamiento tradicional no declara nunca su impotencia o su ignorancia ante ningún suceso. Para este pensamiento no existe el azar ni la falta de completitud, y esto cae también bajo el encabezamiento de las diferencias debidas a la ansiedad que provocaría el fracaso del sistema de creencias.

Concluyendo que es gerundio

Horton realizó una formulación completa y sistemática de su tesis de la equivalencia entre el pensamiento mágico-religioso tradicional y el pensamiento científico, bajo el supuesto de la presencia universal de dos niveles de pensamiento y discurso, uno básico y primario, al que denominaba sentido común, y otro especulativo y secundario, al que denominaba teoría. El primer nivel de pensamiento constituiría el verdadero núcleo duro de racionalidad, ampliamente compartido por todos los seres humanos, y que serviría para situar las cosas en un contexto causal adecuado para su explicación, predicción y control. Sin embargo, según Horton, hay circunstancias  en las que el sentido común no consigue dar cuenta de ciertos fenómenos enigmáticos, y por tanto no es de esperar que pueden ser predecidos ni controlados. En estos casos es cuando se produce el salto al pensamiento del segundo nivel, con el que se busca trascender las limitaciones del pensamiento causal ordinario mediante la formulación de teorías explicativas que ayuden a situar las cosas  en un contexto causal  más amplio que el facilitado por el sentido común.

Las teorías se formulan mediante analogías que parecen adecuadas para conseguir los fines explicativos, por lo que sus componentes se extraen de la experiencia de acontecimientos regulados y ordenados; este contexto en los pueblos africanos lo constituye la esfera social, mientras que la experiencia relacionada con los objetos inanimados se percibe como bastante impredecible. En occidente en cambio, la esfera social es considerada inestable e impredecible, mientras que el mundo inanimado nos parece mucho más regular. Y esto, según Horton, provoca que los patrones de regularidad elegidos para la formación analógica de los modelos teóricos procedan de la esfera social en los contextos tradicionales y de la esfera de lo inanimado en occidente.

Aún cuando el sentido común y el pensamiento teórico desempeñen funciones complementarias, la base de todos nuestros procesos cognitivos y el fundamento de todos nuestros criterios de racionalidad se encuentran, según Horton, profunda y universalmente enraizados en el primero de ellos. Y ya que el pensamiento teórico no cuenta con recursos propios e independientes, no existe ninguna posibilidad de que las teorías explicativas puedan ser aceptadas si no se ajustan a los criterios de la racionalidad ordinaria, que al ser universales garantizarían la neutralidad evaluativa  de cualquiera de sus manifestaciones.

Horton admite que existen diferencias entre ambos tipos de teorías, pero siempre las ha considerado de grado. En la medida en que mantenía la idea de la existencia de dos niveles de apreciación de la realidad, de los cuales uno se relaciona directamente con la experiencia ordinaria y constituye un núcleo de racionalidad ampliamente compartido, no estaba sino defendiendo una postura que ya se había hecho tradicional dentro de la antropología más ortodoxa de la época, el relativismo; pero en tanto que consideraba que las creencias mágico-religiosas persiguen la explicación, predicción y control de los fenómenos de una manera semejante a la de la ciencia occidental, Horton estaba rompiendo con el relativismo para volver a las tesis del intelectualismo victoriano, que por aquellas se creían superadas.