http://www.cuerpomenteyespiritu.com/respiracion-holorenica.html
La técnica holorénica es una técnica de respiración rápida que induce una hiperventilación y una hipoxia final no dañina, que posibilita a la persona entrar en contacto con el material que hay depositado en su inconsciente profundo, tanto personal como arquetípico. No se trata tan sólo de recordar o ver cosas, aunque ello se suele dar, sino que la experiencia es un auténtico retornar a las fuentes de nuestra vida actual, a veces al origen de algún trauma de nuestro pasado que nos condiciona el presente, reviviéndolo y permitiendo así comprenderlo e integrarlo. También ayuda a entrar en contacto inmediato con las fuentes espirituales o energéticas que aportan al individuo una mayor armonía en su existencia cotidiana, entendiéndolo todo ello como un proceso simbólico dotado de significado.
ORIGEN E HISTORIA
"Holorénica" es un neologismo acuñado por el Dr. Josep Mª Fericgla en la década de los años ochenta. La etimología proviene del conocido término griego holós ("globalidad", "totalidad") y del verbo griego arcaico renicós, ("buscar algo" en el sentido específico de buscar justamente en un lugar donde se sabe que está aquello que se está buscando). La acepción etimológica, pues, indica la acción de buscar la totalidad (de la consciencia) en la dirección en que se sabe o intuye que se encuentra.
La Respiración Holorénica es una forma de respirar inspirada en varias fuentes previas: las milenarias técnicas de respiración yóguica conocidas por Kapalabhati, la respiración holotrópica creada por el Dr. Stan Grof, las respiraciones chamánicas de algunos grupos altaicos como técnica para buscar la catarsis y las forma de respirar que descubren los púberes y adolescentes de forma espontánea en cada generación para perder la consciencia. Además de las fuentes citadas hay aportaciones propias y específicas, por lo que se ha nominado con esta denominación propia: Respiración Holorénica.
Esta experiencia práctica es utilizada por el Dr. Josep Ma Fericgla en los Talleres de Integración Vivencial de la Propia Muerte des de 1996. Han pasado por esta Experiencia Activadora de Estructuras Internas cerca de 4000 personas. El Taller es de carácter catártico, permite descubrir dimensiones insospechadas de la existencia, por el camino de descargar las presiones emocionales que nos condicionan. Por medio de un estado modificado de consciencia, cada asistente constata las causas que limitan su vida. No es una terapia, se trata de un marco de sanación y de desarrollo profundo de la persona.
El propulsor de la catarsis es la Respiración Holorénica, controlada por músicas y sonidos altamente seleccionados. Los asistentes experimentan una disolución creativa del ego, descubriendo el lugar exacto donde cada uno está atascado en la vida. Tras el estado modificado de consciencia, sigue un proceso de elaboración de la experiencia que permite entender lo que ha sucedido.
La mayoría de personas que han atravesado esta experiencia, lo recuerdan como un punto de inflexión incomparable en su vida. Especialmente indicado para maestros, parejas, psicoterapeutas, personal sanitario y personas seriamente interesadas en su desarrollo como ser humano.
EN QUÉ CONSISTE LA RESPIRACIÓN HOLORÉNICA
Técnicamente la Respiración Holorénica consiste en respirar rápido en extremo, siguiendo secuencias crecientes de 13 a 16 minutos y con un ritmo de respiración también creciente de 140 a 160 tiempos/minuto. Cada etapa de respiración rápida es seguida por un intermedio de descanso de 3 a 5 minutos. Por este procedimiento, más la posible ayuda de manipulaciones corporales especiales, se consigue que los respirantes imploten y luego exploten en una profunda catarsis de liberación emocional seguida de una etapa de apnea que puede durar entre una y dos horas. Durante esta segunda etapa de la sesión, la música especial que guía la Respiracion Holorénica conduce por un recorrido biográfico que permite a los participantes en las sesiones revisar su vida y, muy a menudo, descubrir los episodios de su vida en los que están atrapados tanto desde el punto de vista emocional como de relaciones sociales
VENTAJAS
La Respiración Holorénica contribuye a:
Percibir y reforzar el sentido de la existencia vivida en la libertad real del ahora y aquí.
Actualizar profundamente la propia vida, liberándola de presiones emocionales del pasado, de angustias de estar mentalmente en el futuro y de guiones de vida prefijados.
Encontrarse con uno/a mismo/a hasta descubrir los propios e insospechados límites.
Ganar valentía y temple para Ser.
Ofrecer un punto de referencia sólido en el proceso de autocreación de cada uno/a, ayudando a los participantes a ver su objetivo final como ser humano único (¿quién soy yo?).
Mostrar uno de los caminos posibles que conducen hacia la unión de opuestos y hacia la integración de partes en conflicto de nuestra propia existencia.
En suma, la Respiración Holorénica ayuda a disolver miedos, angustias y bloqueos, a abandonar comportamientos compulsivos y adictivos, a reactivar ámbitos de la vida interna que habían quedado aletargados (afectos, flexibilidad corporal, aceptación activa de la realidad). Ayuda a encontrar el lugar que le corresponde a cada uno/a en el mundo. Se aprende a acompañar terminales y procesos de duelo.
Autora: Gemma Guarch (Psicóloga)
Colaboradora del Dr. Josep Ma Fericgla
miércoles, 29 de septiembre de 2010
RESPIRACIONES CATARTICAS DE LIBERACION:
Dentro de lo multidisciplinario que es el PME, se pueden utilizar los audios en MP3 o en CDs de formato estándar de respiraciones de liberación, con duración de 15 minutos y que ayudarán a regenerar las ondas cerebrales eliminando las toxinas tanto físicas como energéticas.
Se utilizan con instrucciones especiales para cada caso, nada que se maneje poder se encuentra aislado del entorno, direcciones hacia los puntos cardinales, colores, limpieza energética. Se pueden hacer diferentes tipos de respiraciones con determinadas posiciones de la lengua, ya sea formando una especie de túnel, en contacto con el paladar, vuelta hacia abajo o sacándola al máximo, dependiendo de los objetivos que se deseen o programen.
Estas técnicas de respiración se utilizan mucho en China, India y Tibet. Cuando hacía mis prácticas de los ejercicios respiratorios en los montes Himalayas la energía que se generaba era muy especial. Igualmente, he sentido algo muy especial en el Cuzco, en el valle del Elqui en La Serena, Chile; en San Marcos Sierra en Argentina.
En Japón se les enseña a los niños un método muy simple para controlar la ira. Deben respirar hondo, así el cuerpo desplaza la ira a la respiración. No es tanto el método, sino que lo hacen desde niños, entonces ya forma parte de su cultura. Por ello, los japoneses pueden tener el control de muchas de sus emociones. En parte el progreso del país, es por la fuerza de su gente que forman desde niños, a lo que hay que agregar muchos otros aspectos importantes.
Las respiraciones catárticas hacen que se origine una hiperventilación oxigenando el cuerpo al máximo. Son absolutamente liberadoras y cada vez se obtienen y descubren nuevas cosas en este tipo de respiraciones que nacieron de las teorías del Dr. W. Reich y de su discípulo Dr. A. Lowen.
Toda programación mental que no se afiance, que no origine una liberación de energías "tóxicas", no durará en el tiempo. En nuestro Instituto se aplican los diversos tipos de respiración desde hace varios años con resultados muy positivos. Hemos hecho un método en un CD de audio que debe practicarse cada cierto tiempo en paralelo con la Programación Mental. No es para todos los casos.
En otras escuelas se denomina respiraciones holotrópicas, pudiendo ser practicadas en grupos o individualmente. Difieren en agregados de forma y de fondo. En nuestro caso, nos ha dado estupendos resultados la suspensión de la respiración por breves segundos, al mismo estilo de los templos tibetanos, produciendo una liberación total de la inarmonía, de allí que la denominemos Respiración liberadora.
Luego de mucha experiencia hemos hecho un método muy efectivo. Se incluyen varios tipos de círculos de energía, alternando a los hombres y mujeres por cuestiones de polaridad. Se hacen círculos de pie, acostados, en parejas y otros modos.
El resultado inmediato es una liberación, una descongestión de la mente y del cuerpo. En las primeras prácticas algunas personas experimentan ciertos miedos, angustias, que van desapareciendo rápidamente en las siguientes sesiones. Estos temores se manifiestan a través de temblores del cuerpo, risas, llantos, gritos, que son muy positivos que se manifiesten espontáneamente.
Luego, todo es provecho. Se incrementan las ondas alpha, theta y delta. Se produce mayor creatividad, alegría interna, compañerismo y alegría de vivir.
Si se va dedicar a usar el poder mental con mayor o menor intensidad, es conveniente que revise la calidad de su alimentación. Si desea progresar en salud y prosperidad, significa que tenemos aprecio por la vida, por las buenas cosas, que por lo menos nos apreciamos a nosotros mismos.
Si Usted tiene auto, jamás le pondría un aceite de mala calidad ni combustible que le eche a perder el motor. Igualmente, cuidará que cuando adquiera combustible éste no se riegue al piso, nadie en su sano juicio lo hace, con excepción del ser humano consigo mismo. Cuidamos al auto más que a nosotros mismos.
Le ponemos tanto combustible a nuestro cuerpo, que se riega por el vientre, abdomen, con abultadas y grasientas formas. Esta es una forma de tirar el combustible irracionalmente. Nuestro combustible, adicionalmente al aire y al sol, es la comida, el alimento diario.
Todos quisiéramos un automóvil que consuma el mínimo de combustible, que no tengamos que ir al centro de abastecimiento continuamente. Un vehículo así es lo más deseado. Es un sueño tecnológico con los problemas del petróleo que existen.
Sin embargo, ya tenemos un vehículo económico y es nuestro cuerpo, el ser humano es sumamente económico, necesita muy poco alimento y mientras mas edad, el consumo es mucho menor. Nunca antes la humanidad ha tenido tanto para comer y a la vez tan poco. Tenemos ambos extremos en el planeta, por un lado obesidad mórbida, con personas de 250 Kg. y por el otro con personas en hueso y piel con 30 Kg. en un adulto.
La comida, es tan sólo un combustible, no es más que eso, sin embargo, por los mecanismos de preservación de la especie, por el almacenamiento de grasas para la época de carestía, existen papilas gustativas conectadas a los sistemas de placer y acumulación de grasa o energía en las partes adiposas. Volviendo al ejemplo del automóvil, a Usted le daría lo mismo que el combustible sea verde, rojo o azul. El color o sabor es lo de menos. El auto va a funcionar tan bien con uno o diferente color. De la misma manera ocurre en el cuerpo. Por supuesto, no se trata de ingerir una tableta de alimentos y pasarla bien, ya que nos iríamos al otro extremo pudiendo originarse problemas de adaptación peligrosos. De lo que se trata es de tener plena consciencia de que es la alimentación y no estar desesperados cada vez que tengamos hambre. Muchas personas suspiran por un sándwich, por una tarta de dulces, hasta pueden perder el trabajo, la pareja, sólo por su deseo, su placer mórbido.
Comer sabiendo que la alimentación es necesaria, comer para vivir y no vivir para comer. Que no sea una prioridad, que tenga sólo la importancia exacta. Muchas personas están pensando sólo en cuando recibirán su sueldo para ir al restaurante de su preferencia. Se pueden pensar en tantas cosas, como adquirir un libro, ir a un concierto, pero no en una necesidad tan primaria como es la alimentación. De vez en cuando darse un gusto al comer, es parte del disfrute de la vida, pero que no sea de manera permanente y obsesiva. Cuando es obsesiva se convierte en obesidad y esto está considerado como una enfermedad, de allí su denominación como mórbida.
Yo por ejemplo, acostumbro a ingerir vino, pero cuando tengo algo que celebrar puedo darme el gusto de beber uno de mejor calidad y precio. No embriagarme, ya que considero un insulto embriagarse con un buen vino, sino degustarlo, saborearlo, sentir hasta el clima en donde la uva fue cosechada.
Es lo mismo para la comida, saborearla, sentir la combinación de los ingredientes, la textura de cada componente hasta estar satisfecho. La importancia mayor será la combinación de los alimentos, que deben cumplir su función nutritiva. Particularmente soy vegetariano, pienso que hemos llegado a un nivel evolutivo avanzado, de tal manera que ya no tenemos que matar a nadie para comerlo. Pero, no puedo pedir que todo el mundo se vegetariano.
Hubo el caso de una persona a la que tuvo que hacérsele una operación en la traquea y esófago. Al final quedó imposibilitado de pasar los alimentos y tuvo que hacérsele un dispositivo para que el alimento vaya directamente al estómago. Estuvo así por varios meses, pero luego comenzó a hacer cuadros psicológicos de ansiedad, depresión y otros síntomas. Por mas que se le brindó la ayuda respectiva, cada vez perdía el ánimo hasta de vivir.
Luego de intentarse infructuosamente muchas soluciones, se propuso que todos los alimentos, empezando con las frutas y poco a poco agregando mas alimentos, sean previamente masticadas, saboreadas y luego las devolvería a un recipiente para prepararlas para inyectarlas al estómago. Esta fue la solución, se solucionaron todos sus problemas. Sus sistemas comenzaron a normalizarse, volvió a trabajar, a tener ganas de vivir y no tuvo mas problemas de salud.
Esto se debe a los mecanismos que ya he mencionado. No bastaba con alimentarse, sino que el ser humano, al mantener sus antiguos e innecesarios mecanismos vuelve a su estado primitivo.
Ahora que estamos en la posibilidad de tener un poder mental, un mayor desarrollo de la potencia de la humanidad, tenemos que estar en dominio de la mejor alimentación. De lo que nos ponga a tono y en contacto con las fuerzas sutiles, con las fuerzas antes ocultas para nosotros. Dejar de ser primitivos lo más posible. Estas mismas personas que no resisten la tentación de comer tanto, en parte siguen con los mecanismos ancestrales semi salvajes y en mucho de su comportamiento habitual lo pueden manifestar igualmente.
Por ello, deberemos mejorar la alimentación. No se trata de hacer las cosas más difíciles, sino el de mejorar todo en nuestra vida. Se ha adquirido malos hábitos, nos hemos dejado llevar por la publicidad de las fast food de hamburguesas, pizzas, tortas, con gran cantidad de aceites sobre utilizados además de transgénicos, preservantes, colorantes, saborizantes, frituras, grasas y dulces como nunca antes se ha ingerido.
El hecho de cambiar la forma de vida, no representa una dificultad más, sino mas bien el liberarnos de dificultades. El ser humano es tan extraño que hasta se acostumbra a sufrir, se acostumbra hasta a la cárcel. Se ha visto a presos que no desean salir, que se han acostumbrado a dicha vida y que al salir no tienen a nadie conocido fuera, porque ya han hecho otra vida en la cárcel.
En la nutrición debemos liberarnos de estas cárceles de comida anti natural, con excesos de carnes llenos de hormonas cancerígenas, con porcinos que crecen aceleradamente y que nunca se les permite ni siquiera caminar para que produzcan mas peso y obtener mas ganancias. Con paté de hígado de ganso a los cuales se les provoca una tremenda inflamación para que puedan ser hígados gigantes. Vegetales y frutas con hormonas, fertilizantes y pesticidas sumamente dañinos.
Pero, ¿todo está así?, no, de ninguna manera, si existe una cultura diferente, una mejor vida, una calidad a la que Usted debe ingresar, un mundo superior, que es menos costoso, mas sabroso y sobretodo mas humano, mas natural. Tanto en cantidad, calidad, forma, Usted será enseñado en una mejor forma de alimentarse, de poder renovar las energías, de tener mayor vitalidad.
En principio, nunca coma frutas mezclada con comida cocida, como por ejemplo luego del almuerzo, ya que combinan muy mal y son la fuente de una buena parte de los problemas gástricos.
Las frutas debe ingerirlas como desayuno, sólo frutas, no comer nada cocido hasta unas dos horas después.
Coma lo mínimo de carnes rojas (vacuno, cerdo, pato), no sólo por las hormonas nocivas a las que están expuestas, sino por el exceso de ácido úrico, la forma de matarlos, la poca fuerza del ácido clohídrico en nuestro organismo para este tipo de materias.
Limite al máximo la ingesta de lácteos. El ser humano es el único animal que sigue bebiendo leche cuando adulto. Además, nadie ingiere leche de otra especie, salvo raras ocasiones. Una jirafa no mama de una leona, ni un cerdo de los elefantes. Claro, Usted me dirá que ha visto por televisión que una mona le daba de lactar a unos perritos, pero son casos extraordinarios, no es lo normal. El calcio de la leche puede producir osteoporosis. La leche de vaca es la causante de gran parte de los procesos alérgicos tanto a la piel como digestivos y respiratorios. La mayor parte de los adultos tiene problemas para digerir la lactosa.
Se utilizan con instrucciones especiales para cada caso, nada que se maneje poder se encuentra aislado del entorno, direcciones hacia los puntos cardinales, colores, limpieza energética. Se pueden hacer diferentes tipos de respiraciones con determinadas posiciones de la lengua, ya sea formando una especie de túnel, en contacto con el paladar, vuelta hacia abajo o sacándola al máximo, dependiendo de los objetivos que se deseen o programen.
Estas técnicas de respiración se utilizan mucho en China, India y Tibet. Cuando hacía mis prácticas de los ejercicios respiratorios en los montes Himalayas la energía que se generaba era muy especial. Igualmente, he sentido algo muy especial en el Cuzco, en el valle del Elqui en La Serena, Chile; en San Marcos Sierra en Argentina.
En Japón se les enseña a los niños un método muy simple para controlar la ira. Deben respirar hondo, así el cuerpo desplaza la ira a la respiración. No es tanto el método, sino que lo hacen desde niños, entonces ya forma parte de su cultura. Por ello, los japoneses pueden tener el control de muchas de sus emociones. En parte el progreso del país, es por la fuerza de su gente que forman desde niños, a lo que hay que agregar muchos otros aspectos importantes.
Las respiraciones catárticas hacen que se origine una hiperventilación oxigenando el cuerpo al máximo. Son absolutamente liberadoras y cada vez se obtienen y descubren nuevas cosas en este tipo de respiraciones que nacieron de las teorías del Dr. W. Reich y de su discípulo Dr. A. Lowen.
Toda programación mental que no se afiance, que no origine una liberación de energías "tóxicas", no durará en el tiempo. En nuestro Instituto se aplican los diversos tipos de respiración desde hace varios años con resultados muy positivos. Hemos hecho un método en un CD de audio que debe practicarse cada cierto tiempo en paralelo con la Programación Mental. No es para todos los casos.
En otras escuelas se denomina respiraciones holotrópicas, pudiendo ser practicadas en grupos o individualmente. Difieren en agregados de forma y de fondo. En nuestro caso, nos ha dado estupendos resultados la suspensión de la respiración por breves segundos, al mismo estilo de los templos tibetanos, produciendo una liberación total de la inarmonía, de allí que la denominemos Respiración liberadora.
Luego de mucha experiencia hemos hecho un método muy efectivo. Se incluyen varios tipos de círculos de energía, alternando a los hombres y mujeres por cuestiones de polaridad. Se hacen círculos de pie, acostados, en parejas y otros modos.
El resultado inmediato es una liberación, una descongestión de la mente y del cuerpo. En las primeras prácticas algunas personas experimentan ciertos miedos, angustias, que van desapareciendo rápidamente en las siguientes sesiones. Estos temores se manifiestan a través de temblores del cuerpo, risas, llantos, gritos, que son muy positivos que se manifiesten espontáneamente.
Luego, todo es provecho. Se incrementan las ondas alpha, theta y delta. Se produce mayor creatividad, alegría interna, compañerismo y alegría de vivir.
“ El éxito es la habilidad de ir de fracaso en fracaso sin perder
el entusiasmo” – Winston Churchill
el entusiasmo” – Winston Churchill
“ Tanto si crees que puedes hacerlo, como si no, en los dos
casos tienes razón” – Henry Ford
casos tienes razón” – Henry Ford
“Mi gran preocupación no es si tienes fracasos, sino si estas
contento con tus fracasos” –Abraham Lincoln
contento con tus fracasos” –Abraham Lincoln
IMPORTANCIA DE LA NUTRICION
Si se va dedicar a usar el poder mental con mayor o menor intensidad, es conveniente que revise la calidad de su alimentación. Si desea progresar en salud y prosperidad, significa que tenemos aprecio por la vida, por las buenas cosas, que por lo menos nos apreciamos a nosotros mismos.
Si Usted tiene auto, jamás le pondría un aceite de mala calidad ni combustible que le eche a perder el motor. Igualmente, cuidará que cuando adquiera combustible éste no se riegue al piso, nadie en su sano juicio lo hace, con excepción del ser humano consigo mismo. Cuidamos al auto más que a nosotros mismos.
Le ponemos tanto combustible a nuestro cuerpo, que se riega por el vientre, abdomen, con abultadas y grasientas formas. Esta es una forma de tirar el combustible irracionalmente. Nuestro combustible, adicionalmente al aire y al sol, es la comida, el alimento diario.
Todos quisiéramos un automóvil que consuma el mínimo de combustible, que no tengamos que ir al centro de abastecimiento continuamente. Un vehículo así es lo más deseado. Es un sueño tecnológico con los problemas del petróleo que existen.
Sin embargo, ya tenemos un vehículo económico y es nuestro cuerpo, el ser humano es sumamente económico, necesita muy poco alimento y mientras mas edad, el consumo es mucho menor. Nunca antes la humanidad ha tenido tanto para comer y a la vez tan poco. Tenemos ambos extremos en el planeta, por un lado obesidad mórbida, con personas de 250 Kg. y por el otro con personas en hueso y piel con 30 Kg. en un adulto.
La comida, es tan sólo un combustible, no es más que eso, sin embargo, por los mecanismos de preservación de la especie, por el almacenamiento de grasas para la época de carestía, existen papilas gustativas conectadas a los sistemas de placer y acumulación de grasa o energía en las partes adiposas. Volviendo al ejemplo del automóvil, a Usted le daría lo mismo que el combustible sea verde, rojo o azul. El color o sabor es lo de menos. El auto va a funcionar tan bien con uno o diferente color. De la misma manera ocurre en el cuerpo. Por supuesto, no se trata de ingerir una tableta de alimentos y pasarla bien, ya que nos iríamos al otro extremo pudiendo originarse problemas de adaptación peligrosos. De lo que se trata es de tener plena consciencia de que es la alimentación y no estar desesperados cada vez que tengamos hambre. Muchas personas suspiran por un sándwich, por una tarta de dulces, hasta pueden perder el trabajo, la pareja, sólo por su deseo, su placer mórbido.
Comer sabiendo que la alimentación es necesaria, comer para vivir y no vivir para comer. Que no sea una prioridad, que tenga sólo la importancia exacta. Muchas personas están pensando sólo en cuando recibirán su sueldo para ir al restaurante de su preferencia. Se pueden pensar en tantas cosas, como adquirir un libro, ir a un concierto, pero no en una necesidad tan primaria como es la alimentación. De vez en cuando darse un gusto al comer, es parte del disfrute de la vida, pero que no sea de manera permanente y obsesiva. Cuando es obsesiva se convierte en obesidad y esto está considerado como una enfermedad, de allí su denominación como mórbida.
Yo por ejemplo, acostumbro a ingerir vino, pero cuando tengo algo que celebrar puedo darme el gusto de beber uno de mejor calidad y precio. No embriagarme, ya que considero un insulto embriagarse con un buen vino, sino degustarlo, saborearlo, sentir hasta el clima en donde la uva fue cosechada.
Es lo mismo para la comida, saborearla, sentir la combinación de los ingredientes, la textura de cada componente hasta estar satisfecho. La importancia mayor será la combinación de los alimentos, que deben cumplir su función nutritiva. Particularmente soy vegetariano, pienso que hemos llegado a un nivel evolutivo avanzado, de tal manera que ya no tenemos que matar a nadie para comerlo. Pero, no puedo pedir que todo el mundo se vegetariano.
Hubo el caso de una persona a la que tuvo que hacérsele una operación en la traquea y esófago. Al final quedó imposibilitado de pasar los alimentos y tuvo que hacérsele un dispositivo para que el alimento vaya directamente al estómago. Estuvo así por varios meses, pero luego comenzó a hacer cuadros psicológicos de ansiedad, depresión y otros síntomas. Por mas que se le brindó la ayuda respectiva, cada vez perdía el ánimo hasta de vivir.
Luego de intentarse infructuosamente muchas soluciones, se propuso que todos los alimentos, empezando con las frutas y poco a poco agregando mas alimentos, sean previamente masticadas, saboreadas y luego las devolvería a un recipiente para prepararlas para inyectarlas al estómago. Esta fue la solución, se solucionaron todos sus problemas. Sus sistemas comenzaron a normalizarse, volvió a trabajar, a tener ganas de vivir y no tuvo mas problemas de salud.
Esto se debe a los mecanismos que ya he mencionado. No bastaba con alimentarse, sino que el ser humano, al mantener sus antiguos e innecesarios mecanismos vuelve a su estado primitivo.
Ahora que estamos en la posibilidad de tener un poder mental, un mayor desarrollo de la potencia de la humanidad, tenemos que estar en dominio de la mejor alimentación. De lo que nos ponga a tono y en contacto con las fuerzas sutiles, con las fuerzas antes ocultas para nosotros. Dejar de ser primitivos lo más posible. Estas mismas personas que no resisten la tentación de comer tanto, en parte siguen con los mecanismos ancestrales semi salvajes y en mucho de su comportamiento habitual lo pueden manifestar igualmente.
Por ello, deberemos mejorar la alimentación. No se trata de hacer las cosas más difíciles, sino el de mejorar todo en nuestra vida. Se ha adquirido malos hábitos, nos hemos dejado llevar por la publicidad de las fast food de hamburguesas, pizzas, tortas, con gran cantidad de aceites sobre utilizados además de transgénicos, preservantes, colorantes, saborizantes, frituras, grasas y dulces como nunca antes se ha ingerido.
El hecho de cambiar la forma de vida, no representa una dificultad más, sino mas bien el liberarnos de dificultades. El ser humano es tan extraño que hasta se acostumbra a sufrir, se acostumbra hasta a la cárcel. Se ha visto a presos que no desean salir, que se han acostumbrado a dicha vida y que al salir no tienen a nadie conocido fuera, porque ya han hecho otra vida en la cárcel.
En la nutrición debemos liberarnos de estas cárceles de comida anti natural, con excesos de carnes llenos de hormonas cancerígenas, con porcinos que crecen aceleradamente y que nunca se les permite ni siquiera caminar para que produzcan mas peso y obtener mas ganancias. Con paté de hígado de ganso a los cuales se les provoca una tremenda inflamación para que puedan ser hígados gigantes. Vegetales y frutas con hormonas, fertilizantes y pesticidas sumamente dañinos.
Pero, ¿todo está así?, no, de ninguna manera, si existe una cultura diferente, una mejor vida, una calidad a la que Usted debe ingresar, un mundo superior, que es menos costoso, mas sabroso y sobretodo mas humano, mas natural. Tanto en cantidad, calidad, forma, Usted será enseñado en una mejor forma de alimentarse, de poder renovar las energías, de tener mayor vitalidad.
En principio, nunca coma frutas mezclada con comida cocida, como por ejemplo luego del almuerzo, ya que combinan muy mal y son la fuente de una buena parte de los problemas gástricos.
Las frutas debe ingerirlas como desayuno, sólo frutas, no comer nada cocido hasta unas dos horas después.
Coma lo mínimo de carnes rojas (vacuno, cerdo, pato), no sólo por las hormonas nocivas a las que están expuestas, sino por el exceso de ácido úrico, la forma de matarlos, la poca fuerza del ácido clohídrico en nuestro organismo para este tipo de materias.
Limite al máximo la ingesta de lácteos. El ser humano es el único animal que sigue bebiendo leche cuando adulto. Además, nadie ingiere leche de otra especie, salvo raras ocasiones. Una jirafa no mama de una leona, ni un cerdo de los elefantes. Claro, Usted me dirá que ha visto por televisión que una mona le daba de lactar a unos perritos, pero son casos extraordinarios, no es lo normal. El calcio de la leche puede producir osteoporosis. La leche de vaca es la causante de gran parte de los procesos alérgicos tanto a la piel como digestivos y respiratorios. La mayor parte de los adultos tiene problemas para digerir la lactosa.
“ Todos aquellos que dicen “Lo importante no es ganar o
perder...”, generalmente pierden” – Martina Navratilova
perder...”, generalmente pierden” – Martina Navratilova
lunes, 31 de mayo de 2010
"El Internet Interplanetario"
Según todo esto la posibilidad de que la ciencia ficción toque a nuestros hogares, está a la vuelta de la esquina la IPN es el camino a que la primera red con el planeta rojo se haga realidad o que el láser de transmisión de señales a alta velocidad se ponga en uso así como varias antenas de comunicación sean instaladas en planetas, satélites y asteroides y con esto estar en contacto permanente con la tierra, el resultado de tecnología y ciencia ficción al servicio de los seres humanos y de soñadores que como nosotros lo pueden hacer realidad.
1.
1.
Una red de ordenadores es un conjunto de equipos que pueden almacenar y procesar datos electrónicos, interconectados de forma que sus usuarios pueden almacenar, recuperar y compartir información con los demás. Las máquinas conectadas pueden ser, microordenadores, miniordenadores, grandes ordenadores, terminales, impresoras, dispositivos de almacenamiento, cámaras, entre otros.
En una red de ordenadores se puede almacenar cualquier información, incluyendo textos, imágenes, mensajes de voz e imágenes visuales como por ejemplo fotos y vídeos.
2. Redes de computadoras
El Protocolo de red o también Protocolo de Comunicación es el conjunto de reglas que especifican el intercambio de datos u órdenes durante la comunicación entre las entidades que forman parte de una red.
3. Protocolo de Redes
Internet es un método de interconexión descentralizada de redes de computadoras implementado en un conjunto de protocolos denominado TCP/IP y garantiza que redes físicas heterogéneas funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, EE. UU.
Al contrario de lo que se piensa comúnmente, Internet no es sinónimo de World Wide Web (WWW, o "la Web"). Ésta es parte de Internet, siendo uno de los muchos servicios ofertados en la red Internet. La Web es un sistema de información mucho más reciente, desarrollado inicialmente por Tim Berners Lee en 1989. El WWW utiliza Internet como medio de transmisión.
Algunos de los servicios disponibles en Internet, aparte de la Web, su versión evolucionada Web 2.0 y los sistemas operativos web (WebOS, EyeOS), son el acceso remoto a otras máquinas (SSH y telnet), la transferencia de archivos (FTP), el correo electrónico (SMTP y POP), los boletines electrónicos (news o grupos de noticias), las conversaciones en línea (IRC y chats), la mensajería instantánea, la compartición de archivos (P2P, P2M, Descarga Directa), la radio a la carta (Podcast), el visionado de video a la carta (P2PTV, Miro, Joost, Videocast) y los juegos en línea.
4. Internet
5. Internet: un poco de historia.
2. MARCO TEÓRICO
La historia de Internet comienza realmente en el año 1962. Las pocas computadoras de esa época tenían memorias de núcleos magnéticos con capacidad para almacenar unos pocos miles de caracteres. Los programadores, sin embargo las componían para hacer rendir con enorme ingenio a esos pocos caracteres, por ejemplo, procesando modelos de simulación y de programación lineal en una computadora tal como la IBM 1401 que fue pensada para ser simplemente una impresora y que justamente se caracterizaba por tener originalmente 1400 posiciones de memoria. El mundo de las comunicaciones estaba en ese entonces en manos de IT&T. Existía en esa época un proyecto estratégico del DOD, Department of Defense, Departamento de Defensa de los Estados Unidos denominado ARPA por Advanced Research Projects Agency, Agencia para Proyectos de Investigación Avanzada. Clasificado a su vez como proyecto de alto riesgo y de incalculables beneficios, sienta las bases de la red ARPA o ARPANET, la cual mucho más tarde se convertiría en Internet.
En 1992, 30 años más tarde:
* Internet tenía un millón de computadoras conectadas.
* ARPANET ya no existía.
* Los computadores eran más rápidos en nueve órdenes de magnitud-
* Los anchos de banda eran 20 millones más grandes.
1.
1.
1.
El Programa espacial soviético lanzó el primer satélite artificial del mundo (Sputnik 1) el 4 de octubre de 1957. El Congreso de los Estados Unidos lo percibió como una amenaza a la seguridad y el Presidente Eisenhower y sus consejeros, tras varios meses de debate, tomaron el acuerdo de fundar una nueva agencia federal que dirigiera toda la actividad espacial no militar.
El 29 de julio de 1958 Eisenhower firmó el Acta que funda la NASA (Administración Nacional de Aeronáutica y del Espacio, en inglés: National Aeronautics and Space Administration) la cual empezó a funcionar el 1 de octubre de 1958 con cuatro laboratorios y unos 8.000 empleados.
La intención de los primeros programas era poner una nave tripulada en órbita y ello se realizó bajo la presión de la competencia entre los EE.UU. y la URSS en la denominada Carrera espacial que se produjo durante la Guerra Fría.
El 25 de mayo de 1961 el Presidente John F. Kennedy anunció que Estados Unidos debía comprometerse a "aterrizar a un hombre en la Luna y devolverlo sano y salvo a la Tierra antes del final de la década", para lo cual se creó el Programa Apollo. El Programa Gemini fue concebido para probar las técnicas necesarias para el Programa Apollo, cuyas misiones eran mucho más complejas.
Comenzó con el Gemini 3 el 21 de marzo de 1965 y acabó con el Gemini 12 el 11 de noviembre de 1966. Edward White, quien posteriormente murió en el accidente del Apollo 1, hizo con el Gemini 4 el 3 de junio de 1965 la primera caminata espacial de un estadounidense. El 15 de diciembre de 1965 los Gemini 6 y 7, tripulados por dos astronautas cada uno, hicieron su primera cita espacial aproximando las naves hasta 1,8 m. El vuelo del Gemini 7 tuvo una duración de dos semanas, tiempo que se estimó necesario para las misiones Apollo. El 16 de marzo de 1966 la nave Gemini 8 tripulada por David Scott y Neil Armstrong, que luego sería el primer hombre en pisar la Luna, atracaron su nave al cohete Agena 8 preparando la maniobra de atraque entre el módulo lunar y la nave Apollo.
Durante los ocho años de misiones preliminares la NASA tuvo la primera pérdida de astronautas. El Apolo 1 se incendió en la rampa de lanzamiento durante un ensayo y sus tres astronautas murieron. El Programa Apolo logró su meta con el Apolo 11 que aterrizó con Neil Armstrong y Edwin E. Aldrin en la superficie de la Luna el 20 de julio de 1969 y los devolvió a la Tierra el 24 de julio. Las primeras palabras de Armstrong al poner el pie sobre la Luna fueron: «Éste es un pequeño paso para un hombre, pero un gran salto para la humanidad».
Diez hombres más formarían la lista de astronautas en pisar la Luna cuando finalizó el programa anticipadamente con el Apolo 17, en diciembre de 1972, cuyo resultado fue además de la recogida de muestras de regolito, la instalación de equipos de estudio superficiales ALSEP que aún continúan enviando información.
La NASA había ganado la carrera espacial y, en algún sentido, esto la dejó sin objetivos al disminuir la atención pública capaz de garantizar los grandes presupuestos del Congreso. Ni la casi trágica misión del Apolo 13, donde la explosión de un tanque de oxígeno casi costó la vida a los tres astronautas y les obligó a renunciar a pisar la Luna, pudo volver a atraer la atención. Las misiones posteriores al Apolo 17 (estaban planificadas varias misiones más, hasta el Apolo 20) fueron suspendidas. Los recortes del presupuesto, debidos en parte a la Guerra de Vietnam, provocaron el fin del programa. Los tres Saturno V no utilizados se usaron para el desarrollo del primer laboratorio estadounidense en órbita, el Skylab, y las ideas fueron en la línea de desarrollar un vehículo espacial reutilizable como el transbordador espacial. Poco conocido es el proyecto AAP (Apollo Applications Program), que debía ser el sustituto de las misiones Apolo, o el LASS, destinado a establecer una base habitada en la superficie del satélite.
Aunque la inmensa mayoría del presupuesto de NASA se ha gastado en los vuelos tripulados, ha habido muchas misiones no tripuladas promovidas por la agencia espacial.
En 1962 el Mariner 2 fue la primera nave espacial en hacer un sobrevuelo cercano a otro planeta, en este caso Venus. Los programas Ranger, Surveyor y Lunar Orbiter eran esenciales para evaluar las condiciones lunares antes de intentar el vuelo tripulado del programa Apolo. Posteriormente, las dos sondas Viking que aterrizaron en la superficie de Marte enviaron a la Tierra las primeras imágenes de la superficie del planeta. Quizá las misiones no tripuladas más impresionantes fueron los programas Pioneer 10, Pioneer 11, Voyager 1 y Voyager 2, misiones que visitaron Júpiter, Saturno, Urano y Neptuno y enviaron impresionantes imágenes en color de todos ellos y la mayoría de sus satélites.
El Transbordador espacial se convirtió en el programa espacial favorito de la NASA a finales de los años setenta y los años ochenta. Planeado tanto los dos cohetes lanzadores y el transbordador como reutilizables, se construyeron cuatro transbordadores. El primero en ser lanzado fue el Columbia el 12 de abril de 1981.
Pero los vuelos del transbordador eran mucho más costosos de lo que inicialmente estaba proyectado y, después que el desastre del Transbordador Espacial Challenger en 1986 resaltó los riesgos de los vuelos espaciales, el público recuperó el interés perdido en las misiones espaciales.
No obstante, el transbordador se ha usado para poner en órbita proyectos de mucha importancia como el Telescopio Espacial Hubble (HST). El HST se creó con un presupuesto relativamente pequeño de 2.000 millones de dólares, pero ha continuado funcionando desde 1990 y ha maravillado a los científicos y al público. Algunas de las imágenes han sido legendarias, como las imágenes del denominado Campo Profundo del Hubble. El HST es un proyecto conjunto entre la ESA y la NASA, y su éxito ha ayudado en la mayor colaboración entre las agencias.
En 1995 la cooperación ruso-estadounidense se lograría de nuevo cuando comenzaron las misiones de acoplamiento entre el Transbordador y la estación espacial Mir, (en ese momento la única estación espacial completa). Esta cooperación continúa al día de hoy entre Rusia y Estados Unidos, los dos socios más importantes en la construcción de la ISS. La fuerza de su cooperación en este proyecto fue más evidente cuando la NASA empezó confiando en los vehículos de lanzamiento rusos para mantener la ISS tras el desastre en 2003 del Columbia que mantendrá en tierra la flota de los transbordadores durante más de un año.
Costando más de cien mil millones de dólares, ha sido a veces difícil para la NASA justificar el proyecto ISS. La población estadounidense ha sido históricamente difícil de impresionar con los detalles de experimentos científicos en el espacio. Además, no puede acomodar a tantos científicos como había sido planeado, sobre todo desde que el transbordador espacial está fuera de uso, hasta marzo de 2005, deteniendo la construcción de la ISS y limitando su tripulación a una de mantenimiento de dos personas.
Durante la mayoría de los años 1990 la NASA se enfrentó con una reducción de los presupuestos anuales por parte del Congreso. Para responder a este reto, el noveno administrador de la NASA, Daniel S. Goldin, inventó misiones baratas bajo el lema más rápido, más bueno, más barato que le permitió a la NASA que recortara los costos mientras se emprendían una ancha variedad de programas aerospaciales. Ese método fue criticado y llevó en 1999 a las pérdidas de las naves gemelas Climate Orbiter y Mars Polar Lander de la exploración de Marte.
Probablemente la misión con más éxito entre el público en los últimos años (1997) ha sido la de la sonda Mars Pathfinder. Los periódicos de todo el mundo llevaron las imágenes del robot Sojourner, desplazándose y explorando la superficie de Marte. Desde 1997 la Mars Global Surveyor ha orbitado Marte con un éxito científico innegable. Desde 2001 el orbitador Mars Odyssey ha estado buscando evidencia de agua en el planeta rojo, en el pasado o en el presente, así como pruebas de actividad volcánica.
En 2004 una misión científicamente más ambiciosa llevó a dos robots, Spirit y Opportunity, a analizar las rocas en busca de agua, por lo que aterrizaron en dos zonas de Marte diametralmente opuestas y parece que encontraron vestigios de un antiguo mar o lago salado.
El 14 de enero de 2004, diez días después del aterrizaje de Spirit, el Presidente George W. Bush anunció el futuro de la exploración espacial. La humanidad volverá a la Luna en 2020 como paso previo a un viaje tripulado a Marte.
El Transbordador espacial se retirará en 2010 y será reemplazado en 2014 por el Crew Exploration Vehicle, capaz de atracar en la ISS y dejar la órbita de la Tierra. El futuro del ISS es algo incierto, tras la explosión del Columbia el 1 de febrero de 2003, y el patrón de los vuelos del Transbordador. La construcción se completará, pero el futuro de las próximas misiones es incierto.
2. La exploración espacial y los programas de la NASA
La NASA planea establecer algo que se le llama "El Internet Interplanetario" con el lanzamiento del Orbitador de Telecomunicaciones de Marte (OTM) en el año 2009. El dispositivo espacial tendrá previsto llegar a la órbita sobre Marte en el 2010 y será usado para enviar paquetes de datos a la Tierra desde dispositivos sobre la superficie de Marte y de otros que se encuentren orbitándolo, por un período de más de 10 años y con una extremadamente alta tasa de transferencia. Se ha pensado en este satélite de comunicaciones dedicado debido a la vasta cantidad de información científica que deberá ser enviada a la Tierra tal como la del Laboratorio de Ciencia de Marte en la superficie del planeta. Sin embargo, el 21 de julio del 2005, se anunció que el OTM fue cancelada debido a la necesidad de apoyar otros objetivos a corto plazo, incluyendo, una misión de mantenimiento del Hubble, operaciones de la misión extendida de los vehículos de exploración espacial de Marte, asegurando que el Laboratorio de Ciencia de Marte pueda volar en el 2009, y para salvar de la cancelación a una misión de ciencia de la Tierra, llamada Glory.
3. Orbitador de Telecomunicaciones de Marte
4. Vinton "Vint" G. Cerf.
2. Antecedentes
2. MARCO REFERENCIAL
Mejor conocido como Vinton Cerf, es un científico de la computación estadounidense, considerado como uno de los 'padres' de la Internet. Nacido en Connecticut (Estados Unidos) en 1943, se graduó en Matemáticas y Ciencias de la Computación en la universidad de Stanford (1965). Durante su estancia posterior en la Universidad de California (UCLA) obtuvo el Máster en Ciencia y el Doctorado.
A principios de los años 70 comenzó a trabajar con Robert Kahn en el desarrollo de un conjunto de protocolos de comunicaciones para la red militar ARPANET financiado por la agencia gubernamental DARPA. El objetivo era crear una "red de redes" que permitiera interconectar las distintas redes del Departamento de Defensa norteamericano, todas ellas de diferente tipo y funcionando sobre diferentes sistemas operativos, con independencia del tipo de conexión: radioenlaces, satélites y líneas telefónicas.
Las investigaciones, lideradas por Vinton Cerf, primero desde la Universidad de California (1967-1972) y posteriormente desde la Universidad de Stanford (1972-1976), llevaron al diseño del conjunto de protocolos que hoy son conocidos como TCP/IP (Transmission Control Protocol/Internet Protocol), que fue presentado por Vinton Cerf y Robert Kahn en 1972).
Entre 1976 y 1982, trabajando en DARPA, fue pionero en el desarrollo de la transmisión por radio y satélite de paquetes, responsable del proyecto Internet y del programa de investigación de seguridad en la red. Siempre preocupado por los problemas de conexión de redes, Cerf estableció en 1979 la Internet Configurarion Control Board (que posteriormente se denominó Internet Activities Board) y fue su primer presidente.
Entre 1982 y 1986, Cerf diseñó el MCI MAIL, primer servicio comercial de correo electrónico que se conectaría a Internet.
En 1992 fue uno de los fundadores de la Internet Society y su primer presidente.
Actualmente Vinton Cerf es el Chief Internet Evangelist de Google, ocupación que compagina con el cargo de presidente del ICANN, también es miembro del Comité de Asesoramiento de Sistemas de Datos Espaciales.
Lideró el inicio del "Internet Interplanetario" con Dr. Adrian Hooke en el Laboratorio de Propulsión a Chorro (JPL, en inglés) de la NASA con el cual aún siguen sus investigaciones.
4.
En la actualidad la Internet actual está formada por una estructura mayoritariamente cableada a pesar de que cada vez más se hace uso de tecnologías inalámbricas. Aún así, hoy en día, está basada in infraestructuras cableadas. La razón de predominancia de este tipo de estructuras ha sido ha sido el número de ventajas que ofrecen sobre las inalámbricas.
Estas redes son capaces de proporcionarnos enlaces punto a punto mediante conexiones que producen poca latencia en transferencia de mensajes en comparación con las comunicaciones inalámbricas a grandes distancias, así como hasta ahora, seguridad y fiabilidad.
5. Internet Terrestre
6. Internet "más allá"
Si se quiere llevar Internet más allá de las "fronteras" establecidas actualmente, deberemos ser capaces de adaptar los medios actuales para llevar a cabo esa expansión. Para ella, debemos analizar el tipo de dispositivos que se van a utilizar, sus características y el medio en el que van a situar.
Obviamente estamos hablando de comunicaciones inalámbricas entre nodos que pueden estar o no disponibles en un determinado intervalo de tiempo y que a su vez van a estar muy distanciados entre sí. Además estos nodos van a tener una alimentación de energía limitada y es una de las limitaciones que más van a restringir el diseño de los sistemas de comunicación.
Las limitaciones que nos vamos a encontrar ante la naturaleza de estas comunicaciones serán, por lo tanto: retrasos en la comunicación entre dos puntos, una mayor tasa de errores a las que estamos acostumbrados, conectividad punto a punto debido a que las partes no siempre van a estar disponibles, tasas de envío asimétricas, y la adaptación de mecanismos de calidad de servicio, fiabilidad, direccionamiento.
Por lo tanto, igual que necesitamos agentes que sirvan de enlace para unir redes incompatibles aquí en las redes que conocemos, también necesitaremos agentes capaces de unir las redes actuales con una red interplanetaria.
1. EL INTERNET INTERPLANETARIO (IPN)
En 1998, la agencia de Investigación de proyectos avanzados del ministerio de defensa de los Estados Unidos, DARPA (US Defense Advanced Research Projects Agency), dentro de su plan para la siguiente generación de Internet, fundó un grupo de investigación en la NASA con el objetivo de estudiar los aspectos técnicos para formar una Internet interplanetaria.
La idea de este grupo era usar las técnicas que ya se habían desarrollado en la Internet actual para crear estándares que pudiesen ser utilizados por las distintas agencias para una comunicación interplanetaria. Sus objetivos fueron los siguientes:
1. Usar protocolos actualmente usados en Internet o para formar distintos tipo de redes para poder crear redes en entornos con pocos retardos de transmisión y con relativamente poco ruido.
2. Crear "backbones" en el espacio capaz de comunicar en muy largas distancias con el objetivo de interconectar las redes mencionadas anteriormente.
3. La Internet resultante sería por lo tanto una red de Internets. En esta nueva Internet Interplanetaria se haría uso de un nuevo protocolo, el protocolo de mensaje ("bundling") capaz de "unir" estas redes de naturaleza heterogénea entre sí.
La IPN Trata un conjunto de nodos flotantes en el espacio que se pueden comunicar unos con otros. Pero, a causa de los retrasos de la velocidad de la luz en distancias interplanetarias, aproximadamente de 20 segundos, el IPN necesita un nuevo conjunto de protocolos y tecnología que san tolerantes a grandes retrasos. Por otro lado, el Internet como lo conocemos hoy día, tiende a ser una "red de redes" muy ocupada y con tráfico alto, con demoras y errores insignificantes y además posee un Backbone alámbrico, el Internet Interplanetario es una red "almacenamiento-y-reenvío" de Internets que a menudo se desconecta, con un "backbone inalámbrico" cargado de conexiones propensas a error, y demoras con rangos de retrasos que van desde decenas de minutos, incluso horas, aún cuando hay una conexión.
Viendo las comunicaciones de espacio desde la perspectiva histórica, ha habido una evolución constante de una costosa arquitectura punto a punto única en su tipo, a la tecnología reutilizable en misiones sucesivas, al desarrollo de protocolos uniformes acordados por las agencias del Espacio de muchos países. Esta última fase se ejecuta desde que 1982 por los esfuerzos de El Comité Consultivo para Sistemas de Datos de Espacio (CCSDS), un cuerpo compuesto por la mayoría de agencias del espacio del mundo. Este cuenta con diez agencias miembro, veintidós agencias observadoras, y más de 100 socios industriales.
La evolución de estándares de sistema de datos del espacio ha ido en paralelo con la evolución del Internet, con polinización cruzada conceptual donde es fructífero, pero a un grado grande, como una evolución separada. Desde que el final de la década de los noventa, los protocoles familiares de Internet y los protocolos CCSDS de vínculo espacial se han integrado y han convergido en varias maneras, por ejemplo, la transferencia exitosa de archivos del FTP al Orbitador de la Tierra STRV-1b el 2 de enero de 1996. El uso del Protocolo de Internet sin CCSDS ha sido demostrado también en naves espaciales, por ejemplo el satélite UoSAT-12 y la Constelación de Monitoreo de Desastres. Habiendo alcanzado la era donde la IP a bordo de una nave espacial, y IP o las Especificaciones de Protocolo de comunicaciones de Espacios similares a IP (SCPS) para saltos cortos, ha mostrado ser factible, un estudio de estimaciones futuras de la idea global fue la siguiente fase.
El estudio de Internet Interplanetario en el Laboratorio de Propulsión a Chorro de la NASA (JPL, en inglés) fue empezado por un equipo de científicos dirigido por Vinton Cerf y Adrian Hooke. El Dr. Cerf es uno de los pioneros del Internet en la Tierra, y tiene actualmente la posición de científico visitante distinguido en el JPL. El Señor. Hooke es uno de los directores del CCSDS.
Mientras que los protocolos SCPS similares al IP son factibles para saltos cortos, tal como una estación en la superficie a un orbitador, un explorador a un aterrizador, un aterrizador a un orbitador, una sonda, etcétera. Una red tolerante a retrasos (DTN, Delay Tolerant Network), que es prácticamente donde esta recargada la esencia del proyecto, es necesitada para conseguir información de una región del sistema solar a otra. Se hace manifiesto que el concepto de una "región" es una factorización arquitectónica natural del Internet Interplanetario.
Una "región" es un área donde las características de comunicación son la misma. Las características de una región incluyen comunicaciones, seguridad, conservación de recursos, quizás propiedad, y otros factores. El Internet Interplanetario es una "red de internet regionales".
Lo que se necesitada entonces, es una manera estándar para lograr comunicación punto a punto por múltiples regiones en un ambiente desconectado, de variable demoras que utilice una serie generalizada de protocolos. Ejemplos de regiones pueden incluir el Internet terrestre como una región, una región en la superficie de la luna o Marte, o una región superficie a órbita.
El reconocimiento de este requisito llevó al concepto de un "paquete" como una manera de alto nivel para dirigir el generalizado problema almacenamiento-y-reenvío. Los paquetes son un área de nuevo desarrollo de protocolo en las capas superiores del modelo de OSI, encima de la Capa de Transporte con la meta de dirigir el asunto de empaquetar la información de almacenamiento-y-reenvío para que pueda atravesar con seguridad los ambientes radicalmente diferentes que constituyen "la red de internet regionales".
La capa de servicio de empaquetado, implementado como la suite de protocolo de Empaquetamiento, proporcionará los servicios de protocolo tolerante a demoras de propósito general como soporte a una gama de aplicaciones: transferencia de custodia, segmentación y re-ensamblaje, aseguramiento de punto a punto, seguridad de punto a punto, y enrutamiento de punta a punta entre ellos.
Un ejemplo de una de esas aplicaciones punto-a-punto volando en una misión espacial es CFDP, utilizado en la misión de cometa, Impacto Profundo. CFDP es el protocolo de Entrega de Archivo de CCSDS un estándar internacional para la transferencia automática y segura de archivo en ambas direcciones. CFDP no debe ser confundido con el Protocolo de Distribución Coherente de Archivo, que tiene desafortunadamente las mismas siglas y es un protocolo experimental IETF-Documentado para entrega rápida de archivos a múltiples objetivos en un ambiente de red alto.
Además de copiar con seguridad un archivo de una entidad (i. E. una nave espacial o una estación en la superficie) a otra entidad, el CCSDS CFDP tiene la capacidad de transmitir con confiabilidad, pequeños mensajes arbitrarios definidos por el usuario, en los metadatos que acompañan el archivo, y también la transmisión segura de comandos relacionados a la administración de archivos de sistema que serán ejecutados automáticamente en la entidad remota de punto final (i. E., una nave espacial) luego de la recepción exitosa de un archivo.
El grupo inactivo de intereses especiales del Internet Interplanetario de la Sociedad de Internet ha trabajado en definir protocolos y estándares que harían el IPN posible. El grupo de Investigación de la red tolerante a demoras (DTNRG) es el investigador primario la cual tiene varias arenas mayores de aplicación además del Internet Interplanetario, incluyendo comunicaciones tácticas enfatizadas, redes de sensores, recuperación de desastres, ambientes hostiles, y puestos avanzados remotos. Como un ejemplo de puestos avanzados remotos imagínese una aldea ártica aislada o una isla lejana, con electricidad, y una o más computadoras pero ninguna conectividad de comunicación. Con la adición de un punto inalámbrico sencillo en la aldea, más dispositivos DTN-Habilitados, digamos, trineos de perro o barcos pesqueros, un residente podría verificar su correo electrónico o hacer clic en un artículo de Wikipedia, y tener sus pedidos enviados a la ubicación con red más cercana y en la visita del próximo trineo o barco, obtener sus pedidos.
Hasta el 2005, la NASA ha cancelado los planes para lanzar el Orbitador de Telecomunicaciones de Marte en septiembre 2009; con la meta de dar soporte a misiones futuras secundarias a Marte y podrían funcionar como un primer concentrador definitivo posible de Internet alrededor de otro cuerpo planetario.
1.
El objetivo del proyecto Interplanetario del Internet es de definir la arquitectura y hacer un protocolo necesario para permitir interoperación del residente del Internet en la Tierra con otro residente remotamente localizado de internet en otros planetas o la nave espacial en tránsito. Mientras el Internet de la Tierra es básicamente una "la red de redes conectadas", el Internet Interplanetario puede por lo tanto ser pensado como una "red de Internet desconectados". Trabajar en este ambiente requerirá nuevas técnicas para ser desarrolladas.
Muchos elementos de la serie terrestre actual del Internet de protocolos son esperados ser útil en ambientes de espacio de bajo-demora, las operaciones tal como locales en y alrededor de otros planetas o dentro de volar libre vehículos espaciales. Sin embargo, las demoras de la velocidad de la luz, conectividad, y característica de error-valora intermitente y unidireccional de comunicación de espacio interplanetario hacen su uso irrealizable a través de distancias de espacio interplanetario.
Es anticipado también que la arquitectura y protocolos desarrollados por este proyecto serán útiles en muchos ambientes terrestres en los que una dependencia en el tiempo real comunicación recíproca es o irrealizable o desaconsejable.
El IPNSIG (Interplanet Special Interest Group) existe para permitir la participación pública en la evolución del Internet Interplanetario. La investigación técnica en cómo el Internet de la Tierra puede ser extendido en el espacio interplanetario ha estado en camino durante varios años como parte de un cuerpo internacional de la estandarización de comunicaciones conocido como el Comité Consultivo para Sistemas de Datos de Espacio (CCSDS).
El comité del IPNSIG es formado por: Stephen Farrell, Leigh Torgerson, Scott Burleigh, Eric Travis and Bob Durst, Vint Cerf, Adrian Hooke, entre otros.
La organización de CCSDS es concernida principalmente con la estandarización de comunicaciones para satélites científicos, con un foco primario en las necesidades de misiones de cerca de-término. Para extender este horizonte fuera varias décadas, y para comenzar a implicar la investigación terrestre del Internet y la ingeniería las comunidades, un Estudio Interplanetario especial del Internet fue propuesto y fue financiado subsiguientemente en los Estados Unidos.
El Estudio Interplanetario del Internet es financiado por DARPA (La Agencia de Investigación de Proyectos Avanzados de Defensa), y actualmente consiste en un equipo del centro de investigadores del Laboratorio de Propulsión por Reacción de la NASA, la Corporación de MITRA, ESPARTA, la Ciencia Global & la Tecnología e investigadores consultores del USC/ISI, UCLA y CalTech. La meta primaria del estudio es de investigar protocolos cuán terrestres de internet y las técnicas pueden ser extendidas y/o utilizado a como-yo en la exploración de espacio interplanetario. El equipo del estudio tiene también fundado el IPNSIG y ha formado el centro de un IPNRG bajo el patrocinio del grupo de trabajo de Investigación de Internet.
La meta primaria del equipo del Estudio de NASA IPN será de actuar como el enlace entre las comunidades de satélite y espacio y las comunidades de ISOC/IRTF. El equipo del Estudio de NASA IPN ayudará con requisitos y ayuda con la comprensión del ambiente de espacio interplanetario y misiones, mientras la investigación primaria en protocolos nuevos o modificados será realizada por el IRTF. Además, el Equipo del Estudio de NASA actuará como también el enlace con el Comité Consultivo para Sistemas de Datos de Espacio.
El Equipo del Estudio de NASA permitirá también las oportunidades simuladas y verdaderas a probar protocolos y el uso de técnicas de Internet en el ambiente del espacio.
2. SOBRE EL PROYECTO
El DTNRG es un grupo de investigación que forma parte del IRTF (Grupo de Tareas de Investigación sobre Internet) el cual pertenece al grupo Internet Society. Este grupo tiene a cargo la arquitectura y los protocolos que permitirán la comunicación e interoperabilidad en ambientes donde la conectividad continua end-to-end no puede ser asumida. Dicho de otra forma, están encargados de interconectar redes altamente heterogéneas aunque puede que nunca llegase a existir una conectividad end-to-end. Algunos ejemplos de estos ambientes incluyen naves espaciales, militares y tácticas, algunas formas de responder a desastres, bajo el agua y algunas formas de redes ad-hoc. También puede incluir conectividad de internet en lugares donde el desempeño puede ser afectado por lugares inhóspitos e inalcanzables de la tierra.
Este grupo investiga aspectos de redes tolerantes al retraso en muchas formas como publicaciones académicas, desarrollo y especificaciones de estándares, varias listas de correo activas para intercambiar conocimiento y desarrollo de código.
3. EL GRUPO DE INVESTIGACION DE LA RED TOLERANTE A RETRASOS (DTNRG)
1. Estructura de capas
4. ARQUITECTURA DE LA RED TOLERANTE A RETRASOS (RFC 4838)
Los mensajes que enviamos a través de Internet son sometidos a distintas capas de protocolos. Las distintas capas procesan el mensaje recibido de la capa anterior de tal manera que se crea una jerarquía en los mensajes donde el mensaje en cada eslabón es interpretado por el actor correspondiente.
En la Internet, normalmente nos encontramos con las siguientes capas:
* Capa Aplicación:
Genera y consume datos de usuario.
* Capa Transporte:
Segmentación de los mensajes de origen a destino. reensamblado, control errores, control de flujo.
* Capa de Red:
Direccionamiento de los mensajes. Con fragmentación y reensamblado si se requiere.
* Capa de Enlace:
Transmisión enlace a enlace de las piezas.
* Capa Física:
Transmisión de flujo de bits de enlace a enlace.
1. Por qué una Red Tolerante a Retrasos (DTN, Delay Tolerant Network)?
Las redes "interplanetarias" se caracterizan por:
* Conexiones intermitentes:
No siempre los nodos van a estar visibles los unos con los otros. Los objetos en el espacio están en movimiento, tanto los emisores como los receptores, así mismo como otros objetos o planetas. Cualquier elemento se podría poner en la trayectoria de la comunicación.
Además, debido a las limitaciones de energía, no todos los nodos están accesibles permanentemente por lo que su conexión con el siguiente nodo se programa previamente o bien, si este segundo nodo está permanentemente conectado, enviará datos en la medida en que pueda enviarlos.
Estos problemas de intermitencia en la disponibilidad hacen que se implementen mecanismos de almacenamiento de los mensajes hasta que puedan ser enviados, ya que la naturaleza de las comunicaciones hace que no se deban descartar mensajes con la relativa facilidad con la que se hace en las redes terrestres sin requerimientos especiales
* Retrasos largos o variables:
Las comunicaciones pueden tener un destino muy lejano al origen. Incluso, un origen y un destino determinado no se encuentran siempre a la misma distancia uno de otro.
* Flujo de datos asimétrico:
Dado que el envío de datos en largas distancias, con limitación de energía y con varias otras limitaciones es muy costoso, se limita al máximo los datos enviados. Generalmente suelen ser, de momento, envío de instrucciones hacia un extremo y envío de información masiva hacia el otro (por ejemplo los ‘Rover’ que están explorando Marte).
* Alta tasa de fallos:
Debido a las limitaciones técnicas, de potencia, a largas distancias, alto número de interferencias electromagnéticas, la tasa de fallos en las comunicaciones es elevada. Así, se implementan mecanismos de detección y corrección de errores.
1. Almacenamiento y reenvío
El almacenamiento y reenvío se establece como sistema para evitar una serie de problemas inherentes a la naturaleza de este tipo de comunicaciones, a saber:
* Retrasos largos o variables:
Los nodos consecutivos en el camino pueden no estar visibles entre ellos durante largos periodos de tiempo.
* Tráfico asimétrico:
Habrá nodos que puedan transmitir más rápidamente que otros. Así, se necesitarán mecanismos para poder almacenar los mensajes para su posterior envío de tal modo que no se produzca ninguna pérdida de datos.
* Alta tasa de fallos:
En el medio en el que se transmite el mensaje así como las largas distancias que tienen que atravesar, existe una alta probabilidad de que se produzcan fallos de envío de los mensajes. Cuando se producen fallos, al tratarse de información importante, se requiere el envío de la información. De este modo, cuando un nodo envía un mensaje, no lo puede eliminar en el acto pues puede que se produzcan errores en la recepción, se debería esperar a una confirmación de llegada por parte del nodo destino.
1. Conexiones
Las conexiones entre los nodos de una red tolerante a retrasos pueden ser:
* Casuales:
Cuando un nodo detecta otro nodo con el cual se quiere comunicar, se comunica. Este tipo de conexión es posible siempre que el nodo emisor sepa que el receptor está activo y es capaz de hacer una recepción de los mensajes. El lado positivo de este tipo de transmisión es que el emisor puede enviar cuando cree oportuno puesto que confía en la disponibilidad del receptor. Esto hace que el emisor se active únicamente cuando le convenga transmitir una información. Cuando un nodo se encuentra con otro que quiere hablar, hablan.
* Predichas:
Los nodos, al tener una disponibilidad presumiblemente intermitente, no pueden emitir en cualquier momento por la posible indisponibilidad del receptor. Los nodos se encuentran en movimiento, orbitando o sobre la superficie de un planeta. Si conocemos los ciclos de estos movimientos, se puede calcular la disponibilidad de estos nodos de modo que sólo se activen cuando predigan la disponibilidad de un nodo así como la probabilidad de transmisión de éste.
* Programadas:
Básicamente como el caso anterior, con la diferencia es que no se basan en predicción. En este caso se sincronizan los envíos y recepción de los datos entre los nodos.
* Bajo demanda:
En este caso en concreto, ambos nodos están operativos para el envío y la recepción de los datos. Sin embargo, se establece la activación de un nodo por parte de otro del sistema de transmisión de mensajes. Entonces, en este caso las transmisiones se producen bajo demanda de algún nodo interesado.
1.
Las redes DTN implementan una arquitectura de conmutación de mensajes con almacenamiento y reenvío. Esto, lo consiguen introducción una nueva capa a la arquitectura de capas que ya conocemos. Introducen un nuevo protocolo, el "bundle layer" o capa de mensaje entre la capa de aplicación y la capa de transporte.
El objetivo principal de esta nueva capa es el de unir distintas redes de naturaleza heterogénea entre sí. De esta manera hace que las capas inferiores a esta nueva capa, que usan protocolos específicos dependiendo de donde se encuentren esas redes, no sean un impedimento para la comunicación de las aplicaciones, situadas en la capa superior del nuevo protocolo introducido. Lo que hace es dotar a las comunicaciones entre distintas redes de independencia de las capas inferiores.
El nuevo protocolo introducido es común para todas las redes que forman las redes DTN. Esta capa, es la que almacena y reenvía los mensajes entre los distintos nodos de las redes. Por el contrario, los protocolos de transporte, de red, de enlace y físico, son independientes de una región a otra. Esto es debido, como comentado anteriormente a las distintas características del entorno donde se establecen estas redes.
Los mensajes por lo tanto consistirán en (1) los datos de la aplicación de usuario, (2) la información de control para aplicación de destino proporcionada por la aplicación de origen y (3) una cabecera, propia de este nuevo protocolo e insertada por el mismo.
La nueva capa es capaz de fragmentar los mensajes, igual que como actúa IP. En este caso, será el mismo protocolo en encargado de reensamblarlos cuando sea necesario.
2. Bundle layer
Debido a la naturaleza de las comunicaciones, las largas distancias, los retrasos introducidos, la alta tasa de errores, hacen de la interactividad de la que disponemos con el protocolo TCP, de un lujo del que es muy caro disponer en las comunicaciones en redes DTN. De esta manera, estos viajes de ida y vuelta entre los nodos inicial y final tardarían mucho tiempo. Así, con el nuevo protocolo introducido, las comunicaciones se harán con los mínimos viajes posibles de ida y vuelta. Así, los "acknowledgements" del receptor serán opcionales dependiendo de la QoS elegida. Y esto, por supuesto, depende del tipo de conexión posible entre los nodos.
3. Interactividad
4. Nodos
En las redes DTN existen tres tipos de nodos diferentes. Los nodos pueden actuar como:
* Hosts:
Los host envían o reciben "bundles", pero no los reenvían. No actúan como nodos intermedios. Son emisores o receptores.
* Routers:
Reenvían "bundles" en una misma región DTN. Requieren almacenamiento persistente para poder hacer transmisiones bajo custodia y poder almacenar los mensajes hasta que el siguiente nodo en la ruta esté disponible.
* Gateways:
Reenvían "bundles" entre distintas regiones DTN. Opcionalmente pueden actuar como host. Los Gateways deben soportar también almacenamiento persistente para envíos de tipo "store & forward" (almacenamiento-envío). Los "Gateways", a su vez, son capaces de de hacer conversiones en las capas más bajas de protocolo entre las regiones entre las que se encuentra. Así, hará compatible los mensajes entre distintas regiones DTN que no tienen porque ser homogéneas.
1.
Las DTNs deben soportar conexiones entre dos nodos. La capacidad de conexión nodo a nodo se debe implementar en la "bundle layer". La "bundle layer" soportará entonces las retransmisiones nodo a nodo en términos de transferencias bajo custodia.
Las transferencias bajo custodia son concertadas entre las "bundle layers" de los sucesivos nodos cuando la aplicación inicia la conexión. Cuando un nodo quiere enviar, la "bundle layer" de este nodo comprueba si el siguiente nodo en la ruta soporta transferencias bajo custodia. De ser así, envía el mensaje y, cuando recibe una confirmación de que se ha entregado correctamente el mensaje, el nodo emisor borra entonces su copia del mensaje. Es entonces quien ha recibido el mensaje el responsable de enviarlo al siguiente nodo. Operando de la misma forma, el mensaje llegará al nodo destino.
Las transferencias bajo custodia no aseguran un servicio garantizado punto a punto. Los mensajes contienen TTLs que deben cumplir. Debido a los grandes retrasos que se producen, cuando se forman los mensajes y se les asigna TTL, se tienen en cuenta las distintas situaciones por las que podría pasar el mensaje.
2. Transferencias bajo custodia
En este tipo de redes todos los nodos los nodos implementan la "bundle layer" y la capa de transporte.
Los gateways en DTN pueden soportar distintos conjuntos de protocolos de transporte, red, enlace y físico, tal y como se muestra en la figura con el fin de poder enviar mensajes entre regiones con distintas configuraciones.
La principal diferencia en redes DTN con respecto a las redes tradicionales que conocemos con respecto al "routing" reside en los Gateways. Los Gateways son capaces de compatibilizar mensajes pertenecientes a distintas regiones, mediante la transformación de los mensajes accediendo a los protocolos por debajo de la capa de mensaje (propios de cada región) como podemos ver en la figura anterior.
3. Routing DTN
Una DTN es una red de redes. Cada una de las redes conforma una región con unas características de comunicación homogéneas.
Las regiones van a tener su propio identificador. Estos identificadores van a ser comúnmente conocidos por los nodos de la red y, el identificador de cada nodo estará formado por el identificador propio de la red junto con otro identificador que lo diferenciará dentro de la propia red. Los Gateways serán los únicos dispositivos que poseerán dos direcciones ya que forman parte de dos o más regiones simultáneamente.
4. Regiones
En redes DTN aparte de autenticar a los usuarios y la integridad de los mensajes, se autentica también los nodos por los que va atravesando el mensaje desde un origen hasta llegar a un destino. De esta manera se evita el tráfico ilegal y se conservan recursos.
En las redes DTN tanto los mensajes como los nodos tienen su propio par de claves (pública y privada) así como su propio certificado. En los certificados se indica el tipo de calidad de servicio requerida para los envíos de los mensajes.
Cuando un emisor quiere enviar un mensaje, lo firman con su clave privada. Los receptores, usando la clave pública pueden verificar la autenticidad del mensaje, la integridad y la clase de servicio requerida.
5. Seguridad
6. Ejemplo de comunicación
Por ejemplo, vamos a ver cómo sería una comunicación desde la Tierra hasta Marte. Iremos viendo cómo se va transmitiendo el mensaje de nodo a nodo.
Las direcciones de origen y destino van a ser las siguientes:
{earth.sol.int, src.jpl.nasa.gov:6769} y {mars.sol.int, dst.jpl.nasa.gov:6769} respectivamente.
Cuando se crea el mensaje, aparte de la dirección de origen y destino, también se especifica la firma, la clase de servicio y los datos de usuario.
Primero creamos el mensaje: la bundle layer comprueba la firma de la fuente de los datos, crea un mensaje y añade la cabecera y su firma. Seguidamente almacena el mensaje hasta que pueda ser enviado.
Posteriormente a la creación del mensaje, nos disponemos a la transmisión del mismo. Es el mismo protocolo de mensaje quien consulta su tabla de rutas y determina que el Gateway de la Tierra se encuentra en la dirección {earth.sol.int, ipngw1.jpl.nasa.gov:6769}. Este es el siguiente nodo en la trayectoria del paquete hacia el destino. También averigua que el protocolo de transporte que debe usar es TCP.
Es el momento de transmitir el mensaje.
El emisor envía una copia del mensaje al Gateway de la Tierra usando TCP como protocolo de transporte. Entonces el emisor queda a la espera de recibir la aceptación por parte del Gateway del mensaje. El mensaje se transmite bajo custodia.
Al recibir el Gateway de la tierra el mensaje, cierra la conexión TCP establecida. Esto es así ya que el protocolo de transporte utilizado en la comunicación hacia este nodo ha sido TCP. El Gateway verifica la firma del emisor así como la clase de servicio establecida. Cuando se verifica la validez del mensaje, el protocolo de mensaje cambia la firma. Aun así, conserva la firma del creador del mensaje. Y ahora almacena el mensaje en sus dispositivos de almacenamiento.
El Gateway de la Tierra, consulta la tabla de rutas y determina la dirección siguiente: {mars.sol.int, ipngw2.jpl.nasa.mars.org:6769}. Consulta también cuando este nodo estará disponible para enviarle el mensaje sólo cuando el receptor sea capaz de recibirlo. Entonces confirma el TTL y si puede enviar el mensaje, y entonces envía un mensaje al nodo de quien recibió el mensaje a transmitir comunicándole que ya puede borrar su copia del mensaje, que ya se encarga él de enviarlo.
Cuando llegue la hora establecida en la cual el receptor vaya a estar disponible, se envía el mensaje.
Cuando el mensaje llega al Gateway de Marte, aparte de hacer los pasos descritos anteriormente, descubre que el protocolo de transporte utilizado en la nueva región es TCP. De manera que el Gateway prepara el mensaje para una conexión TCP con el siguiente nodo, que ya será el destino. Y finalmente es enviado al destino.
El nodo destino recibe el mensaje vía una conexión TCP. El destino entonces cierra la conexión y comprueba la firma del nodo anterior. Almacena el mensaje, acepta la custodia e informa al Gateway de que ya puede borrar su copia.
Para finalizar, la capa de mensaje invoca a la aplicación por encima de él a quien va destinado el mensaje. Dependiendo de la aplicación, opcionalmente puede generar "acknowledgements" dirigidos al emisor del mensaje para confirmar la recepción.
1.
Los protocolos existentes hasta a fecha y que se comparan a gran escala con TCP/IP respectivamente son:
1. Bundle Protocol (RFC 5050)
2. ESPECIFICACIÓN DE PROTOCOLOS ACTUALES.
Intercambio de mensajes, puede ser una buena traducción de "bundles" según los investigadores del DTNRG. Acá queremos dar una breve especificación tomada de la Referencia 5050 de la IETF.
Las DTN son utilizadas en ambientes realmente cambiantes con una conectividad intermitente, largos y/o variables retrasos y una tasa alta de errores en la transferencia de bits. Para proveer servicios en las DTN, el BP se establece sobre la capa de aplicación para formar una red de almacenamiento y envío con el fin de que los datos lleguen al otro punto de conexión. Algunas de las capacidades de este protocolo son:
* Retransmisión basada en custodia.
* Capacidad de sobrellevar conectividad intermitente.
* Capacidad de conexiones oportunistas, predictadas y planeadas (con el fin de prepara una conexión continua).
Este es un protocolo experimental, producido en el DTNRG y alimentado por consenso de muchos contribuyentes al grupo.
Las características aún más específicas de este protocolo se encuentran en el Anexo 1.
1. Licklider Transmission Protocol (LTP) (RFC en proceso)
Es un protocolo de retransmisión para una comunicación segura entre dos puntos en un ambiente de tolerancia a retrasos. Nombrado en honor a Joseph Carl Robnett Licklider, científico estadounidense primero en articular la idea de una red de computadoras intergaláctica en sus inicios en 1962, Vint Cerf tuvo la iniciativa de este nombre. Por otro lado, también se la designado como un protocolo de convergencia para los pilares interplanetarios de una red tolerante a retrasos "end-to-end". Este protocolo se puede compara para su compresión con el protocolo TCP.
El funcionamiento de este protocolo se fundamente en la transmisión de un bloque de datos dividido en segmentos. Cuando estos segmentos son transmitimos, algunos son señalados como "checkpoints". Cuando un "checkpoint" es recibido, el receptor retorna un reporte de recepción acumulativa. Si los puntos de revisión no son explícitos los datos se vuelven a reenviar por medio de un "timer" que periódicamente revisa la recepción de puntos de revisión.
Dentro de las habilidades de este protocolo se destacan:
Tolera la interrupción de los enlaces sin pérdida de datos.
Designado para imponer un mínimo recargo en enlaces de baja capacidad y/o enlaces asimétricos.
Los segmentos pueden ser expandidos (seguridad de código).
Retransmisión acelerada: múltiples revisión de estado por bloque transmitido.
Certeza parcial: los puntos de revisión y retransmisión se pueden habilitar solamente por las primeros N bytes de un bloque.
Para las especificaciones mas detallas del protocolo favor ver el Anexo 2.
2.
El proyecto original conocido como Interplanet se ha expandido y crecido sustancialmente y se ha re-fundamentado en una arquitectura más global y con énfasis en las DTN, actualmente en el sitio web del DTNRG (http://www.dtnrg.org) existen accesos a artículos e investigaciones en los cuales se discute la situación pasada y actual de las aplicaciones de las DTN y los problemas que presentan en las redes terrestres. Por otro lado, es importante resaltar que la arquitectura de las DTN y el Bundle Protocol están documentados como estándares de referencia del IET.
Actualmente, está iniciando lo que parece ser una actividad muy seria para implementar esta tecnología antes mencionada en comunicaciones de vuelos espaciales, tal y como lo imaginaron cuando el proyecto empezó en 1998.
En adición a esto, también se tiene proyectado la instalación de esta tecnología a bordo de la Estación Espacial Internacional (ISS), está pendiente aún una discusión más profunda. También se está trabajando en un plan pruebas en Octubre para la nave "Deep Impact", cuyos datos no se sabrán hasta dentro de unos meses.
Actualmente, el LTP está en proceso de inscripción como una norma del RFC y el protocolo se encuentra en perfeccionamiento y Steven Farrel está trabajando en su implementación.
3. ÚLTIMOS AVANCES
Interplanet es un proyecto con el cual se verá beneficiada toda la humanidad, debido que se podrán estudiar datos enviados desde Marte y poder validar aún más la posibilidad de que ese planeta sea habitable algún día.
La investigación científica se verá fortalecida, pues la facilidad de analizar datos más confiables y de una manera más rápida, imágenes nítidas y confiables.
El desarrollo de este proyecto y específicamente de los protocolos, modificará ciertos estándares conocidos como el modelo OSI, pues ha aparecido otra capa que deberá ser agregada a los estándares.
La posibilidad de enviar y recibir datos entre redes tolerantes a retrasos, ayudará a que la conectividad incluso aquí en la tierra se vea sustancialmente mejorado, pues ya no importará el medio y los retrasos.
Es un proyecto que todavía le falta mucho por terminar, por lo que está aún pendiente la culminación de los protocolos BP y LTP, pues están en un periodo experimental.
La importancia fundamental radica en que los datos lleguen legibles y completos, sin que estos sean afectados, por ambientes completamente heterogéneos.
Este proyecto desprende mucha documentación que puede ser aprovechada para artículos, desarrollo y proyectos que integren los protocolos antes mencionados.
Los países podrán tomar ventaja de esta tecnología al realizar alianzas de investigación, tanto académicas como empresariales.
4. CONCLUSIONES Y REFLEXIONES
5. Referencias
Estudio de la Interplanet. En: http://www.ipnsig.org/aboutstudy.htm. Visitado el: 23/3/2008
Internet Interplanetario. En: http://en.wikipedia.org/wiki/Interplanetary_Internet Visitado el: 23/3/2008
NASA. En: http://es.wikipedia.org/wiki/NASA Visitado el: 23/3/2008
Gobierno del Internet. En: http://www.wgig.org/docs/SociedadNorte-CommentApril.doc Visitado el: 23/3/2008
Internet Research Task Force Research Group. (DTNRG). En: http://www.dtnrg.org.Visitado el: 26/3/2008
DTN Architecture Document: En: http://tools.ietf.org/group/irtf/draft-irtf-dtnrg-arch-08.txt. Visitado el: 26/3/2008
Delay-Tolerant Networking: An Approach to Interplanetary Internet: Scott Burleigh, Adrian Hooke, and Leigh Torgerson, Jet Propulsion Laboratory
En: http://www.dtnrg.org/papers/ieee-comsoc-article.pdf. Visitado el: 26/3/2008
InterPlaNetary Internet: state-of-the-art and research challenges: Ian F. Akyildiz, Chao Chen, Jian Fang, Weilian Su. En: http://www.ece.gatech.edu/research/labs/bwn/space.pdf. Visitado el: 26/3/2008
Technologies for the InterPlanetary Network. Dr. James R. Lesh Chief Technologist & Manager, Technology Office Interplanetary Network and Information Systems Directorate Jet Propulsion Laboratory California Institute of Technology
En: http://www.ipnsig.org/reports/Lesh-IPN-Technologies.pdf. Visitado el: 26/3/2008.
TOWARDS AN INTERPLANETARY INTERNET: A PROPOSED STRATEGY FOR STANDARDIZATION. Adrian J. Hooke Jet Propulsion Laboratory, California Institute of Technology Pasadena, California, USA. En: http://www.ipnsig.org/reports/SpaceOps-Oct-2002.pdf. Visitado el: 28/3/2008
Delay-Tolerant Networks (DTNs): Forrest Warthman Warthman Associates
En: http://ipnsig.org/reports/DTN_Tutorial11.pdf. Visitado el: 28/3/2008
Borrador de la especificación RFC del IPN. En: http://ipnsig.org/reports/draft-irtf-ipnrg-arch-01.txt. Visitado el: 28/3/2008
Agradecimiento especial para:
Scott Burleigh del Laboratorio de Propulsión a Chorro de la NASA.
Steven Farrell del Grupo de Investigación de la Red Interplanetaria
Special thanks to:
Scott Burleigh of the Jet Propulsion Lab (JPL) - NASA.
Steven Farrell of the IPNSIG (Interplanet Special Interest Group).
Autor:
Edgar A. Vega Briceño
edgar.vega[arroba]yahoo.es
Ingeniero en Informática, Universidad Nacional de Costa Rica
Sobre el autor de este trabajo:
Edgar A. Vega Briceño, Ingeniero en Informática de la Universidad Nacional de Costa Rica y actualmente ostentando el grado de Máster en Administración de las Tecnologías de Información y Comunicación en la misma Universidad. Profesor universitario e investigador en temas relacionados con TI.
1.
1.
Una red de ordenadores es un conjunto de equipos que pueden almacenar y procesar datos electrónicos, interconectados de forma que sus usuarios pueden almacenar, recuperar y compartir información con los demás. Las máquinas conectadas pueden ser, microordenadores, miniordenadores, grandes ordenadores, terminales, impresoras, dispositivos de almacenamiento, cámaras, entre otros.
En una red de ordenadores se puede almacenar cualquier información, incluyendo textos, imágenes, mensajes de voz e imágenes visuales como por ejemplo fotos y vídeos.
2. Redes de computadoras
El Protocolo de red o también Protocolo de Comunicación es el conjunto de reglas que especifican el intercambio de datos u órdenes durante la comunicación entre las entidades que forman parte de una red.
3. Protocolo de Redes
Internet es un método de interconexión descentralizada de redes de computadoras implementado en un conjunto de protocolos denominado TCP/IP y garantiza que redes físicas heterogéneas funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, EE. UU.
Al contrario de lo que se piensa comúnmente, Internet no es sinónimo de World Wide Web (WWW, o "la Web"). Ésta es parte de Internet, siendo uno de los muchos servicios ofertados en la red Internet. La Web es un sistema de información mucho más reciente, desarrollado inicialmente por Tim Berners Lee en 1989. El WWW utiliza Internet como medio de transmisión.
Algunos de los servicios disponibles en Internet, aparte de la Web, su versión evolucionada Web 2.0 y los sistemas operativos web (WebOS, EyeOS), son el acceso remoto a otras máquinas (SSH y telnet), la transferencia de archivos (FTP), el correo electrónico (SMTP y POP), los boletines electrónicos (news o grupos de noticias), las conversaciones en línea (IRC y chats), la mensajería instantánea, la compartición de archivos (P2P, P2M, Descarga Directa), la radio a la carta (Podcast), el visionado de video a la carta (P2PTV, Miro, Joost, Videocast) y los juegos en línea.
4. Internet
5. Internet: un poco de historia.
2. MARCO TEÓRICO
La historia de Internet comienza realmente en el año 1962. Las pocas computadoras de esa época tenían memorias de núcleos magnéticos con capacidad para almacenar unos pocos miles de caracteres. Los programadores, sin embargo las componían para hacer rendir con enorme ingenio a esos pocos caracteres, por ejemplo, procesando modelos de simulación y de programación lineal en una computadora tal como la IBM 1401 que fue pensada para ser simplemente una impresora y que justamente se caracterizaba por tener originalmente 1400 posiciones de memoria. El mundo de las comunicaciones estaba en ese entonces en manos de IT&T. Existía en esa época un proyecto estratégico del DOD, Department of Defense, Departamento de Defensa de los Estados Unidos denominado ARPA por Advanced Research Projects Agency, Agencia para Proyectos de Investigación Avanzada. Clasificado a su vez como proyecto de alto riesgo y de incalculables beneficios, sienta las bases de la red ARPA o ARPANET, la cual mucho más tarde se convertiría en Internet.
En 1992, 30 años más tarde:
* Internet tenía un millón de computadoras conectadas.
* ARPANET ya no existía.
* Los computadores eran más rápidos en nueve órdenes de magnitud-
* Los anchos de banda eran 20 millones más grandes.
1.
1.
1.
El Programa espacial soviético lanzó el primer satélite artificial del mundo (Sputnik 1) el 4 de octubre de 1957. El Congreso de los Estados Unidos lo percibió como una amenaza a la seguridad y el Presidente Eisenhower y sus consejeros, tras varios meses de debate, tomaron el acuerdo de fundar una nueva agencia federal que dirigiera toda la actividad espacial no militar.
El 29 de julio de 1958 Eisenhower firmó el Acta que funda la NASA (Administración Nacional de Aeronáutica y del Espacio, en inglés: National Aeronautics and Space Administration) la cual empezó a funcionar el 1 de octubre de 1958 con cuatro laboratorios y unos 8.000 empleados.
La intención de los primeros programas era poner una nave tripulada en órbita y ello se realizó bajo la presión de la competencia entre los EE.UU. y la URSS en la denominada Carrera espacial que se produjo durante la Guerra Fría.
El 25 de mayo de 1961 el Presidente John F. Kennedy anunció que Estados Unidos debía comprometerse a "aterrizar a un hombre en la Luna y devolverlo sano y salvo a la Tierra antes del final de la década", para lo cual se creó el Programa Apollo. El Programa Gemini fue concebido para probar las técnicas necesarias para el Programa Apollo, cuyas misiones eran mucho más complejas.
Comenzó con el Gemini 3 el 21 de marzo de 1965 y acabó con el Gemini 12 el 11 de noviembre de 1966. Edward White, quien posteriormente murió en el accidente del Apollo 1, hizo con el Gemini 4 el 3 de junio de 1965 la primera caminata espacial de un estadounidense. El 15 de diciembre de 1965 los Gemini 6 y 7, tripulados por dos astronautas cada uno, hicieron su primera cita espacial aproximando las naves hasta 1,8 m. El vuelo del Gemini 7 tuvo una duración de dos semanas, tiempo que se estimó necesario para las misiones Apollo. El 16 de marzo de 1966 la nave Gemini 8 tripulada por David Scott y Neil Armstrong, que luego sería el primer hombre en pisar la Luna, atracaron su nave al cohete Agena 8 preparando la maniobra de atraque entre el módulo lunar y la nave Apollo.
Durante los ocho años de misiones preliminares la NASA tuvo la primera pérdida de astronautas. El Apolo 1 se incendió en la rampa de lanzamiento durante un ensayo y sus tres astronautas murieron. El Programa Apolo logró su meta con el Apolo 11 que aterrizó con Neil Armstrong y Edwin E. Aldrin en la superficie de la Luna el 20 de julio de 1969 y los devolvió a la Tierra el 24 de julio. Las primeras palabras de Armstrong al poner el pie sobre la Luna fueron: «Éste es un pequeño paso para un hombre, pero un gran salto para la humanidad».
Diez hombres más formarían la lista de astronautas en pisar la Luna cuando finalizó el programa anticipadamente con el Apolo 17, en diciembre de 1972, cuyo resultado fue además de la recogida de muestras de regolito, la instalación de equipos de estudio superficiales ALSEP que aún continúan enviando información.
La NASA había ganado la carrera espacial y, en algún sentido, esto la dejó sin objetivos al disminuir la atención pública capaz de garantizar los grandes presupuestos del Congreso. Ni la casi trágica misión del Apolo 13, donde la explosión de un tanque de oxígeno casi costó la vida a los tres astronautas y les obligó a renunciar a pisar la Luna, pudo volver a atraer la atención. Las misiones posteriores al Apolo 17 (estaban planificadas varias misiones más, hasta el Apolo 20) fueron suspendidas. Los recortes del presupuesto, debidos en parte a la Guerra de Vietnam, provocaron el fin del programa. Los tres Saturno V no utilizados se usaron para el desarrollo del primer laboratorio estadounidense en órbita, el Skylab, y las ideas fueron en la línea de desarrollar un vehículo espacial reutilizable como el transbordador espacial. Poco conocido es el proyecto AAP (Apollo Applications Program), que debía ser el sustituto de las misiones Apolo, o el LASS, destinado a establecer una base habitada en la superficie del satélite.
Aunque la inmensa mayoría del presupuesto de NASA se ha gastado en los vuelos tripulados, ha habido muchas misiones no tripuladas promovidas por la agencia espacial.
En 1962 el Mariner 2 fue la primera nave espacial en hacer un sobrevuelo cercano a otro planeta, en este caso Venus. Los programas Ranger, Surveyor y Lunar Orbiter eran esenciales para evaluar las condiciones lunares antes de intentar el vuelo tripulado del programa Apolo. Posteriormente, las dos sondas Viking que aterrizaron en la superficie de Marte enviaron a la Tierra las primeras imágenes de la superficie del planeta. Quizá las misiones no tripuladas más impresionantes fueron los programas Pioneer 10, Pioneer 11, Voyager 1 y Voyager 2, misiones que visitaron Júpiter, Saturno, Urano y Neptuno y enviaron impresionantes imágenes en color de todos ellos y la mayoría de sus satélites.
El Transbordador espacial se convirtió en el programa espacial favorito de la NASA a finales de los años setenta y los años ochenta. Planeado tanto los dos cohetes lanzadores y el transbordador como reutilizables, se construyeron cuatro transbordadores. El primero en ser lanzado fue el Columbia el 12 de abril de 1981.
Pero los vuelos del transbordador eran mucho más costosos de lo que inicialmente estaba proyectado y, después que el desastre del Transbordador Espacial Challenger en 1986 resaltó los riesgos de los vuelos espaciales, el público recuperó el interés perdido en las misiones espaciales.
No obstante, el transbordador se ha usado para poner en órbita proyectos de mucha importancia como el Telescopio Espacial Hubble (HST). El HST se creó con un presupuesto relativamente pequeño de 2.000 millones de dólares, pero ha continuado funcionando desde 1990 y ha maravillado a los científicos y al público. Algunas de las imágenes han sido legendarias, como las imágenes del denominado Campo Profundo del Hubble. El HST es un proyecto conjunto entre la ESA y la NASA, y su éxito ha ayudado en la mayor colaboración entre las agencias.
En 1995 la cooperación ruso-estadounidense se lograría de nuevo cuando comenzaron las misiones de acoplamiento entre el Transbordador y la estación espacial Mir, (en ese momento la única estación espacial completa). Esta cooperación continúa al día de hoy entre Rusia y Estados Unidos, los dos socios más importantes en la construcción de la ISS. La fuerza de su cooperación en este proyecto fue más evidente cuando la NASA empezó confiando en los vehículos de lanzamiento rusos para mantener la ISS tras el desastre en 2003 del Columbia que mantendrá en tierra la flota de los transbordadores durante más de un año.
Costando más de cien mil millones de dólares, ha sido a veces difícil para la NASA justificar el proyecto ISS. La población estadounidense ha sido históricamente difícil de impresionar con los detalles de experimentos científicos en el espacio. Además, no puede acomodar a tantos científicos como había sido planeado, sobre todo desde que el transbordador espacial está fuera de uso, hasta marzo de 2005, deteniendo la construcción de la ISS y limitando su tripulación a una de mantenimiento de dos personas.
Durante la mayoría de los años 1990 la NASA se enfrentó con una reducción de los presupuestos anuales por parte del Congreso. Para responder a este reto, el noveno administrador de la NASA, Daniel S. Goldin, inventó misiones baratas bajo el lema más rápido, más bueno, más barato que le permitió a la NASA que recortara los costos mientras se emprendían una ancha variedad de programas aerospaciales. Ese método fue criticado y llevó en 1999 a las pérdidas de las naves gemelas Climate Orbiter y Mars Polar Lander de la exploración de Marte.
Probablemente la misión con más éxito entre el público en los últimos años (1997) ha sido la de la sonda Mars Pathfinder. Los periódicos de todo el mundo llevaron las imágenes del robot Sojourner, desplazándose y explorando la superficie de Marte. Desde 1997 la Mars Global Surveyor ha orbitado Marte con un éxito científico innegable. Desde 2001 el orbitador Mars Odyssey ha estado buscando evidencia de agua en el planeta rojo, en el pasado o en el presente, así como pruebas de actividad volcánica.
En 2004 una misión científicamente más ambiciosa llevó a dos robots, Spirit y Opportunity, a analizar las rocas en busca de agua, por lo que aterrizaron en dos zonas de Marte diametralmente opuestas y parece que encontraron vestigios de un antiguo mar o lago salado.
El 14 de enero de 2004, diez días después del aterrizaje de Spirit, el Presidente George W. Bush anunció el futuro de la exploración espacial. La humanidad volverá a la Luna en 2020 como paso previo a un viaje tripulado a Marte.
El Transbordador espacial se retirará en 2010 y será reemplazado en 2014 por el Crew Exploration Vehicle, capaz de atracar en la ISS y dejar la órbita de la Tierra. El futuro del ISS es algo incierto, tras la explosión del Columbia el 1 de febrero de 2003, y el patrón de los vuelos del Transbordador. La construcción se completará, pero el futuro de las próximas misiones es incierto.
2. La exploración espacial y los programas de la NASA
La NASA planea establecer algo que se le llama "El Internet Interplanetario" con el lanzamiento del Orbitador de Telecomunicaciones de Marte (OTM) en el año 2009. El dispositivo espacial tendrá previsto llegar a la órbita sobre Marte en el 2010 y será usado para enviar paquetes de datos a la Tierra desde dispositivos sobre la superficie de Marte y de otros que se encuentren orbitándolo, por un período de más de 10 años y con una extremadamente alta tasa de transferencia. Se ha pensado en este satélite de comunicaciones dedicado debido a la vasta cantidad de información científica que deberá ser enviada a la Tierra tal como la del Laboratorio de Ciencia de Marte en la superficie del planeta. Sin embargo, el 21 de julio del 2005, se anunció que el OTM fue cancelada debido a la necesidad de apoyar otros objetivos a corto plazo, incluyendo, una misión de mantenimiento del Hubble, operaciones de la misión extendida de los vehículos de exploración espacial de Marte, asegurando que el Laboratorio de Ciencia de Marte pueda volar en el 2009, y para salvar de la cancelación a una misión de ciencia de la Tierra, llamada Glory.
3. Orbitador de Telecomunicaciones de Marte
4. Vinton "Vint" G. Cerf.
2. Antecedentes
2. MARCO REFERENCIAL
Mejor conocido como Vinton Cerf, es un científico de la computación estadounidense, considerado como uno de los 'padres' de la Internet. Nacido en Connecticut (Estados Unidos) en 1943, se graduó en Matemáticas y Ciencias de la Computación en la universidad de Stanford (1965). Durante su estancia posterior en la Universidad de California (UCLA) obtuvo el Máster en Ciencia y el Doctorado.
A principios de los años 70 comenzó a trabajar con Robert Kahn en el desarrollo de un conjunto de protocolos de comunicaciones para la red militar ARPANET financiado por la agencia gubernamental DARPA. El objetivo era crear una "red de redes" que permitiera interconectar las distintas redes del Departamento de Defensa norteamericano, todas ellas de diferente tipo y funcionando sobre diferentes sistemas operativos, con independencia del tipo de conexión: radioenlaces, satélites y líneas telefónicas.
Las investigaciones, lideradas por Vinton Cerf, primero desde la Universidad de California (1967-1972) y posteriormente desde la Universidad de Stanford (1972-1976), llevaron al diseño del conjunto de protocolos que hoy son conocidos como TCP/IP (Transmission Control Protocol/Internet Protocol), que fue presentado por Vinton Cerf y Robert Kahn en 1972).
Entre 1976 y 1982, trabajando en DARPA, fue pionero en el desarrollo de la transmisión por radio y satélite de paquetes, responsable del proyecto Internet y del programa de investigación de seguridad en la red. Siempre preocupado por los problemas de conexión de redes, Cerf estableció en 1979 la Internet Configurarion Control Board (que posteriormente se denominó Internet Activities Board) y fue su primer presidente.
Entre 1982 y 1986, Cerf diseñó el MCI MAIL, primer servicio comercial de correo electrónico que se conectaría a Internet.
En 1992 fue uno de los fundadores de la Internet Society y su primer presidente.
Actualmente Vinton Cerf es el Chief Internet Evangelist de Google, ocupación que compagina con el cargo de presidente del ICANN, también es miembro del Comité de Asesoramiento de Sistemas de Datos Espaciales.
Lideró el inicio del "Internet Interplanetario" con Dr. Adrian Hooke en el Laboratorio de Propulsión a Chorro (JPL, en inglés) de la NASA con el cual aún siguen sus investigaciones.
4.
En la actualidad la Internet actual está formada por una estructura mayoritariamente cableada a pesar de que cada vez más se hace uso de tecnologías inalámbricas. Aún así, hoy en día, está basada in infraestructuras cableadas. La razón de predominancia de este tipo de estructuras ha sido ha sido el número de ventajas que ofrecen sobre las inalámbricas.
Estas redes son capaces de proporcionarnos enlaces punto a punto mediante conexiones que producen poca latencia en transferencia de mensajes en comparación con las comunicaciones inalámbricas a grandes distancias, así como hasta ahora, seguridad y fiabilidad.
5. Internet Terrestre
6. Internet "más allá"
Si se quiere llevar Internet más allá de las "fronteras" establecidas actualmente, deberemos ser capaces de adaptar los medios actuales para llevar a cabo esa expansión. Para ella, debemos analizar el tipo de dispositivos que se van a utilizar, sus características y el medio en el que van a situar.
Obviamente estamos hablando de comunicaciones inalámbricas entre nodos que pueden estar o no disponibles en un determinado intervalo de tiempo y que a su vez van a estar muy distanciados entre sí. Además estos nodos van a tener una alimentación de energía limitada y es una de las limitaciones que más van a restringir el diseño de los sistemas de comunicación.
Las limitaciones que nos vamos a encontrar ante la naturaleza de estas comunicaciones serán, por lo tanto: retrasos en la comunicación entre dos puntos, una mayor tasa de errores a las que estamos acostumbrados, conectividad punto a punto debido a que las partes no siempre van a estar disponibles, tasas de envío asimétricas, y la adaptación de mecanismos de calidad de servicio, fiabilidad, direccionamiento.
Por lo tanto, igual que necesitamos agentes que sirvan de enlace para unir redes incompatibles aquí en las redes que conocemos, también necesitaremos agentes capaces de unir las redes actuales con una red interplanetaria.
1. EL INTERNET INTERPLANETARIO (IPN)
En 1998, la agencia de Investigación de proyectos avanzados del ministerio de defensa de los Estados Unidos, DARPA (US Defense Advanced Research Projects Agency), dentro de su plan para la siguiente generación de Internet, fundó un grupo de investigación en la NASA con el objetivo de estudiar los aspectos técnicos para formar una Internet interplanetaria.
La idea de este grupo era usar las técnicas que ya se habían desarrollado en la Internet actual para crear estándares que pudiesen ser utilizados por las distintas agencias para una comunicación interplanetaria. Sus objetivos fueron los siguientes:
1. Usar protocolos actualmente usados en Internet o para formar distintos tipo de redes para poder crear redes en entornos con pocos retardos de transmisión y con relativamente poco ruido.
2. Crear "backbones" en el espacio capaz de comunicar en muy largas distancias con el objetivo de interconectar las redes mencionadas anteriormente.
3. La Internet resultante sería por lo tanto una red de Internets. En esta nueva Internet Interplanetaria se haría uso de un nuevo protocolo, el protocolo de mensaje ("bundling") capaz de "unir" estas redes de naturaleza heterogénea entre sí.
La IPN Trata un conjunto de nodos flotantes en el espacio que se pueden comunicar unos con otros. Pero, a causa de los retrasos de la velocidad de la luz en distancias interplanetarias, aproximadamente de 20 segundos, el IPN necesita un nuevo conjunto de protocolos y tecnología que san tolerantes a grandes retrasos. Por otro lado, el Internet como lo conocemos hoy día, tiende a ser una "red de redes" muy ocupada y con tráfico alto, con demoras y errores insignificantes y además posee un Backbone alámbrico, el Internet Interplanetario es una red "almacenamiento-y-reenvío" de Internets que a menudo se desconecta, con un "backbone inalámbrico" cargado de conexiones propensas a error, y demoras con rangos de retrasos que van desde decenas de minutos, incluso horas, aún cuando hay una conexión.
Viendo las comunicaciones de espacio desde la perspectiva histórica, ha habido una evolución constante de una costosa arquitectura punto a punto única en su tipo, a la tecnología reutilizable en misiones sucesivas, al desarrollo de protocolos uniformes acordados por las agencias del Espacio de muchos países. Esta última fase se ejecuta desde que 1982 por los esfuerzos de El Comité Consultivo para Sistemas de Datos de Espacio (CCSDS), un cuerpo compuesto por la mayoría de agencias del espacio del mundo. Este cuenta con diez agencias miembro, veintidós agencias observadoras, y más de 100 socios industriales.
La evolución de estándares de sistema de datos del espacio ha ido en paralelo con la evolución del Internet, con polinización cruzada conceptual donde es fructífero, pero a un grado grande, como una evolución separada. Desde que el final de la década de los noventa, los protocoles familiares de Internet y los protocolos CCSDS de vínculo espacial se han integrado y han convergido en varias maneras, por ejemplo, la transferencia exitosa de archivos del FTP al Orbitador de la Tierra STRV-1b el 2 de enero de 1996. El uso del Protocolo de Internet sin CCSDS ha sido demostrado también en naves espaciales, por ejemplo el satélite UoSAT-12 y la Constelación de Monitoreo de Desastres. Habiendo alcanzado la era donde la IP a bordo de una nave espacial, y IP o las Especificaciones de Protocolo de comunicaciones de Espacios similares a IP (SCPS) para saltos cortos, ha mostrado ser factible, un estudio de estimaciones futuras de la idea global fue la siguiente fase.
El estudio de Internet Interplanetario en el Laboratorio de Propulsión a Chorro de la NASA (JPL, en inglés) fue empezado por un equipo de científicos dirigido por Vinton Cerf y Adrian Hooke. El Dr. Cerf es uno de los pioneros del Internet en la Tierra, y tiene actualmente la posición de científico visitante distinguido en el JPL. El Señor. Hooke es uno de los directores del CCSDS.
Mientras que los protocolos SCPS similares al IP son factibles para saltos cortos, tal como una estación en la superficie a un orbitador, un explorador a un aterrizador, un aterrizador a un orbitador, una sonda, etcétera. Una red tolerante a retrasos (DTN, Delay Tolerant Network), que es prácticamente donde esta recargada la esencia del proyecto, es necesitada para conseguir información de una región del sistema solar a otra. Se hace manifiesto que el concepto de una "región" es una factorización arquitectónica natural del Internet Interplanetario.
Una "región" es un área donde las características de comunicación son la misma. Las características de una región incluyen comunicaciones, seguridad, conservación de recursos, quizás propiedad, y otros factores. El Internet Interplanetario es una "red de internet regionales".
Lo que se necesitada entonces, es una manera estándar para lograr comunicación punto a punto por múltiples regiones en un ambiente desconectado, de variable demoras que utilice una serie generalizada de protocolos. Ejemplos de regiones pueden incluir el Internet terrestre como una región, una región en la superficie de la luna o Marte, o una región superficie a órbita.
El reconocimiento de este requisito llevó al concepto de un "paquete" como una manera de alto nivel para dirigir el generalizado problema almacenamiento-y-reenvío. Los paquetes son un área de nuevo desarrollo de protocolo en las capas superiores del modelo de OSI, encima de la Capa de Transporte con la meta de dirigir el asunto de empaquetar la información de almacenamiento-y-reenvío para que pueda atravesar con seguridad los ambientes radicalmente diferentes que constituyen "la red de internet regionales".
La capa de servicio de empaquetado, implementado como la suite de protocolo de Empaquetamiento, proporcionará los servicios de protocolo tolerante a demoras de propósito general como soporte a una gama de aplicaciones: transferencia de custodia, segmentación y re-ensamblaje, aseguramiento de punto a punto, seguridad de punto a punto, y enrutamiento de punta a punta entre ellos.
Un ejemplo de una de esas aplicaciones punto-a-punto volando en una misión espacial es CFDP, utilizado en la misión de cometa, Impacto Profundo. CFDP es el protocolo de Entrega de Archivo de CCSDS un estándar internacional para la transferencia automática y segura de archivo en ambas direcciones. CFDP no debe ser confundido con el Protocolo de Distribución Coherente de Archivo, que tiene desafortunadamente las mismas siglas y es un protocolo experimental IETF-Documentado para entrega rápida de archivos a múltiples objetivos en un ambiente de red alto.
Además de copiar con seguridad un archivo de una entidad (i. E. una nave espacial o una estación en la superficie) a otra entidad, el CCSDS CFDP tiene la capacidad de transmitir con confiabilidad, pequeños mensajes arbitrarios definidos por el usuario, en los metadatos que acompañan el archivo, y también la transmisión segura de comandos relacionados a la administración de archivos de sistema que serán ejecutados automáticamente en la entidad remota de punto final (i. E., una nave espacial) luego de la recepción exitosa de un archivo.
El grupo inactivo de intereses especiales del Internet Interplanetario de la Sociedad de Internet ha trabajado en definir protocolos y estándares que harían el IPN posible. El grupo de Investigación de la red tolerante a demoras (DTNRG) es el investigador primario la cual tiene varias arenas mayores de aplicación además del Internet Interplanetario, incluyendo comunicaciones tácticas enfatizadas, redes de sensores, recuperación de desastres, ambientes hostiles, y puestos avanzados remotos. Como un ejemplo de puestos avanzados remotos imagínese una aldea ártica aislada o una isla lejana, con electricidad, y una o más computadoras pero ninguna conectividad de comunicación. Con la adición de un punto inalámbrico sencillo en la aldea, más dispositivos DTN-Habilitados, digamos, trineos de perro o barcos pesqueros, un residente podría verificar su correo electrónico o hacer clic en un artículo de Wikipedia, y tener sus pedidos enviados a la ubicación con red más cercana y en la visita del próximo trineo o barco, obtener sus pedidos.
Hasta el 2005, la NASA ha cancelado los planes para lanzar el Orbitador de Telecomunicaciones de Marte en septiembre 2009; con la meta de dar soporte a misiones futuras secundarias a Marte y podrían funcionar como un primer concentrador definitivo posible de Internet alrededor de otro cuerpo planetario.
1.
El objetivo del proyecto Interplanetario del Internet es de definir la arquitectura y hacer un protocolo necesario para permitir interoperación del residente del Internet en la Tierra con otro residente remotamente localizado de internet en otros planetas o la nave espacial en tránsito. Mientras el Internet de la Tierra es básicamente una "la red de redes conectadas", el Internet Interplanetario puede por lo tanto ser pensado como una "red de Internet desconectados". Trabajar en este ambiente requerirá nuevas técnicas para ser desarrolladas.
Muchos elementos de la serie terrestre actual del Internet de protocolos son esperados ser útil en ambientes de espacio de bajo-demora, las operaciones tal como locales en y alrededor de otros planetas o dentro de volar libre vehículos espaciales. Sin embargo, las demoras de la velocidad de la luz, conectividad, y característica de error-valora intermitente y unidireccional de comunicación de espacio interplanetario hacen su uso irrealizable a través de distancias de espacio interplanetario.
Es anticipado también que la arquitectura y protocolos desarrollados por este proyecto serán útiles en muchos ambientes terrestres en los que una dependencia en el tiempo real comunicación recíproca es o irrealizable o desaconsejable.
El IPNSIG (Interplanet Special Interest Group) existe para permitir la participación pública en la evolución del Internet Interplanetario. La investigación técnica en cómo el Internet de la Tierra puede ser extendido en el espacio interplanetario ha estado en camino durante varios años como parte de un cuerpo internacional de la estandarización de comunicaciones conocido como el Comité Consultivo para Sistemas de Datos de Espacio (CCSDS).
El comité del IPNSIG es formado por: Stephen Farrell, Leigh Torgerson, Scott Burleigh, Eric Travis and Bob Durst, Vint Cerf, Adrian Hooke, entre otros.
La organización de CCSDS es concernida principalmente con la estandarización de comunicaciones para satélites científicos, con un foco primario en las necesidades de misiones de cerca de-término. Para extender este horizonte fuera varias décadas, y para comenzar a implicar la investigación terrestre del Internet y la ingeniería las comunidades, un Estudio Interplanetario especial del Internet fue propuesto y fue financiado subsiguientemente en los Estados Unidos.
El Estudio Interplanetario del Internet es financiado por DARPA (La Agencia de Investigación de Proyectos Avanzados de Defensa), y actualmente consiste en un equipo del centro de investigadores del Laboratorio de Propulsión por Reacción de la NASA, la Corporación de MITRA, ESPARTA, la Ciencia Global & la Tecnología e investigadores consultores del USC/ISI, UCLA y CalTech. La meta primaria del estudio es de investigar protocolos cuán terrestres de internet y las técnicas pueden ser extendidas y/o utilizado a como-yo en la exploración de espacio interplanetario. El equipo del estudio tiene también fundado el IPNSIG y ha formado el centro de un IPNRG bajo el patrocinio del grupo de trabajo de Investigación de Internet.
La meta primaria del equipo del Estudio de NASA IPN será de actuar como el enlace entre las comunidades de satélite y espacio y las comunidades de ISOC/IRTF. El equipo del Estudio de NASA IPN ayudará con requisitos y ayuda con la comprensión del ambiente de espacio interplanetario y misiones, mientras la investigación primaria en protocolos nuevos o modificados será realizada por el IRTF. Además, el Equipo del Estudio de NASA actuará como también el enlace con el Comité Consultivo para Sistemas de Datos de Espacio.
El Equipo del Estudio de NASA permitirá también las oportunidades simuladas y verdaderas a probar protocolos y el uso de técnicas de Internet en el ambiente del espacio.
2. SOBRE EL PROYECTO
El DTNRG es un grupo de investigación que forma parte del IRTF (Grupo de Tareas de Investigación sobre Internet) el cual pertenece al grupo Internet Society. Este grupo tiene a cargo la arquitectura y los protocolos que permitirán la comunicación e interoperabilidad en ambientes donde la conectividad continua end-to-end no puede ser asumida. Dicho de otra forma, están encargados de interconectar redes altamente heterogéneas aunque puede que nunca llegase a existir una conectividad end-to-end. Algunos ejemplos de estos ambientes incluyen naves espaciales, militares y tácticas, algunas formas de responder a desastres, bajo el agua y algunas formas de redes ad-hoc. También puede incluir conectividad de internet en lugares donde el desempeño puede ser afectado por lugares inhóspitos e inalcanzables de la tierra.
Este grupo investiga aspectos de redes tolerantes al retraso en muchas formas como publicaciones académicas, desarrollo y especificaciones de estándares, varias listas de correo activas para intercambiar conocimiento y desarrollo de código.
3. EL GRUPO DE INVESTIGACION DE LA RED TOLERANTE A RETRASOS (DTNRG)
1. Estructura de capas
4. ARQUITECTURA DE LA RED TOLERANTE A RETRASOS (RFC 4838)
Los mensajes que enviamos a través de Internet son sometidos a distintas capas de protocolos. Las distintas capas procesan el mensaje recibido de la capa anterior de tal manera que se crea una jerarquía en los mensajes donde el mensaje en cada eslabón es interpretado por el actor correspondiente.
En la Internet, normalmente nos encontramos con las siguientes capas:
* Capa Aplicación:
Genera y consume datos de usuario.
* Capa Transporte:
Segmentación de los mensajes de origen a destino. reensamblado, control errores, control de flujo.
* Capa de Red:
Direccionamiento de los mensajes. Con fragmentación y reensamblado si se requiere.
* Capa de Enlace:
Transmisión enlace a enlace de las piezas.
* Capa Física:
Transmisión de flujo de bits de enlace a enlace.
1. Por qué una Red Tolerante a Retrasos (DTN, Delay Tolerant Network)?
Las redes "interplanetarias" se caracterizan por:
* Conexiones intermitentes:
No siempre los nodos van a estar visibles los unos con los otros. Los objetos en el espacio están en movimiento, tanto los emisores como los receptores, así mismo como otros objetos o planetas. Cualquier elemento se podría poner en la trayectoria de la comunicación.
Además, debido a las limitaciones de energía, no todos los nodos están accesibles permanentemente por lo que su conexión con el siguiente nodo se programa previamente o bien, si este segundo nodo está permanentemente conectado, enviará datos en la medida en que pueda enviarlos.
Estos problemas de intermitencia en la disponibilidad hacen que se implementen mecanismos de almacenamiento de los mensajes hasta que puedan ser enviados, ya que la naturaleza de las comunicaciones hace que no se deban descartar mensajes con la relativa facilidad con la que se hace en las redes terrestres sin requerimientos especiales
* Retrasos largos o variables:
Las comunicaciones pueden tener un destino muy lejano al origen. Incluso, un origen y un destino determinado no se encuentran siempre a la misma distancia uno de otro.
* Flujo de datos asimétrico:
Dado que el envío de datos en largas distancias, con limitación de energía y con varias otras limitaciones es muy costoso, se limita al máximo los datos enviados. Generalmente suelen ser, de momento, envío de instrucciones hacia un extremo y envío de información masiva hacia el otro (por ejemplo los ‘Rover’ que están explorando Marte).
* Alta tasa de fallos:
Debido a las limitaciones técnicas, de potencia, a largas distancias, alto número de interferencias electromagnéticas, la tasa de fallos en las comunicaciones es elevada. Así, se implementan mecanismos de detección y corrección de errores.
1. Almacenamiento y reenvío
El almacenamiento y reenvío se establece como sistema para evitar una serie de problemas inherentes a la naturaleza de este tipo de comunicaciones, a saber:
* Retrasos largos o variables:
Los nodos consecutivos en el camino pueden no estar visibles entre ellos durante largos periodos de tiempo.
* Tráfico asimétrico:
Habrá nodos que puedan transmitir más rápidamente que otros. Así, se necesitarán mecanismos para poder almacenar los mensajes para su posterior envío de tal modo que no se produzca ninguna pérdida de datos.
* Alta tasa de fallos:
En el medio en el que se transmite el mensaje así como las largas distancias que tienen que atravesar, existe una alta probabilidad de que se produzcan fallos de envío de los mensajes. Cuando se producen fallos, al tratarse de información importante, se requiere el envío de la información. De este modo, cuando un nodo envía un mensaje, no lo puede eliminar en el acto pues puede que se produzcan errores en la recepción, se debería esperar a una confirmación de llegada por parte del nodo destino.
1. Conexiones
Las conexiones entre los nodos de una red tolerante a retrasos pueden ser:
* Casuales:
Cuando un nodo detecta otro nodo con el cual se quiere comunicar, se comunica. Este tipo de conexión es posible siempre que el nodo emisor sepa que el receptor está activo y es capaz de hacer una recepción de los mensajes. El lado positivo de este tipo de transmisión es que el emisor puede enviar cuando cree oportuno puesto que confía en la disponibilidad del receptor. Esto hace que el emisor se active únicamente cuando le convenga transmitir una información. Cuando un nodo se encuentra con otro que quiere hablar, hablan.
* Predichas:
Los nodos, al tener una disponibilidad presumiblemente intermitente, no pueden emitir en cualquier momento por la posible indisponibilidad del receptor. Los nodos se encuentran en movimiento, orbitando o sobre la superficie de un planeta. Si conocemos los ciclos de estos movimientos, se puede calcular la disponibilidad de estos nodos de modo que sólo se activen cuando predigan la disponibilidad de un nodo así como la probabilidad de transmisión de éste.
* Programadas:
Básicamente como el caso anterior, con la diferencia es que no se basan en predicción. En este caso se sincronizan los envíos y recepción de los datos entre los nodos.
* Bajo demanda:
En este caso en concreto, ambos nodos están operativos para el envío y la recepción de los datos. Sin embargo, se establece la activación de un nodo por parte de otro del sistema de transmisión de mensajes. Entonces, en este caso las transmisiones se producen bajo demanda de algún nodo interesado.
1.
Las redes DTN implementan una arquitectura de conmutación de mensajes con almacenamiento y reenvío. Esto, lo consiguen introducción una nueva capa a la arquitectura de capas que ya conocemos. Introducen un nuevo protocolo, el "bundle layer" o capa de mensaje entre la capa de aplicación y la capa de transporte.
El objetivo principal de esta nueva capa es el de unir distintas redes de naturaleza heterogénea entre sí. De esta manera hace que las capas inferiores a esta nueva capa, que usan protocolos específicos dependiendo de donde se encuentren esas redes, no sean un impedimento para la comunicación de las aplicaciones, situadas en la capa superior del nuevo protocolo introducido. Lo que hace es dotar a las comunicaciones entre distintas redes de independencia de las capas inferiores.
El nuevo protocolo introducido es común para todas las redes que forman las redes DTN. Esta capa, es la que almacena y reenvía los mensajes entre los distintos nodos de las redes. Por el contrario, los protocolos de transporte, de red, de enlace y físico, son independientes de una región a otra. Esto es debido, como comentado anteriormente a las distintas características del entorno donde se establecen estas redes.
Los mensajes por lo tanto consistirán en (1) los datos de la aplicación de usuario, (2) la información de control para aplicación de destino proporcionada por la aplicación de origen y (3) una cabecera, propia de este nuevo protocolo e insertada por el mismo.
La nueva capa es capaz de fragmentar los mensajes, igual que como actúa IP. En este caso, será el mismo protocolo en encargado de reensamblarlos cuando sea necesario.
2. Bundle layer
Debido a la naturaleza de las comunicaciones, las largas distancias, los retrasos introducidos, la alta tasa de errores, hacen de la interactividad de la que disponemos con el protocolo TCP, de un lujo del que es muy caro disponer en las comunicaciones en redes DTN. De esta manera, estos viajes de ida y vuelta entre los nodos inicial y final tardarían mucho tiempo. Así, con el nuevo protocolo introducido, las comunicaciones se harán con los mínimos viajes posibles de ida y vuelta. Así, los "acknowledgements" del receptor serán opcionales dependiendo de la QoS elegida. Y esto, por supuesto, depende del tipo de conexión posible entre los nodos.
3. Interactividad
4. Nodos
En las redes DTN existen tres tipos de nodos diferentes. Los nodos pueden actuar como:
* Hosts:
Los host envían o reciben "bundles", pero no los reenvían. No actúan como nodos intermedios. Son emisores o receptores.
* Routers:
Reenvían "bundles" en una misma región DTN. Requieren almacenamiento persistente para poder hacer transmisiones bajo custodia y poder almacenar los mensajes hasta que el siguiente nodo en la ruta esté disponible.
* Gateways:
Reenvían "bundles" entre distintas regiones DTN. Opcionalmente pueden actuar como host. Los Gateways deben soportar también almacenamiento persistente para envíos de tipo "store & forward" (almacenamiento-envío). Los "Gateways", a su vez, son capaces de de hacer conversiones en las capas más bajas de protocolo entre las regiones entre las que se encuentra. Así, hará compatible los mensajes entre distintas regiones DTN que no tienen porque ser homogéneas.
1.
Las DTNs deben soportar conexiones entre dos nodos. La capacidad de conexión nodo a nodo se debe implementar en la "bundle layer". La "bundle layer" soportará entonces las retransmisiones nodo a nodo en términos de transferencias bajo custodia.
Las transferencias bajo custodia son concertadas entre las "bundle layers" de los sucesivos nodos cuando la aplicación inicia la conexión. Cuando un nodo quiere enviar, la "bundle layer" de este nodo comprueba si el siguiente nodo en la ruta soporta transferencias bajo custodia. De ser así, envía el mensaje y, cuando recibe una confirmación de que se ha entregado correctamente el mensaje, el nodo emisor borra entonces su copia del mensaje. Es entonces quien ha recibido el mensaje el responsable de enviarlo al siguiente nodo. Operando de la misma forma, el mensaje llegará al nodo destino.
Las transferencias bajo custodia no aseguran un servicio garantizado punto a punto. Los mensajes contienen TTLs que deben cumplir. Debido a los grandes retrasos que se producen, cuando se forman los mensajes y se les asigna TTL, se tienen en cuenta las distintas situaciones por las que podría pasar el mensaje.
2. Transferencias bajo custodia
En este tipo de redes todos los nodos los nodos implementan la "bundle layer" y la capa de transporte.
Los gateways en DTN pueden soportar distintos conjuntos de protocolos de transporte, red, enlace y físico, tal y como se muestra en la figura con el fin de poder enviar mensajes entre regiones con distintas configuraciones.
La principal diferencia en redes DTN con respecto a las redes tradicionales que conocemos con respecto al "routing" reside en los Gateways. Los Gateways son capaces de compatibilizar mensajes pertenecientes a distintas regiones, mediante la transformación de los mensajes accediendo a los protocolos por debajo de la capa de mensaje (propios de cada región) como podemos ver en la figura anterior.
3. Routing DTN
Una DTN es una red de redes. Cada una de las redes conforma una región con unas características de comunicación homogéneas.
Las regiones van a tener su propio identificador. Estos identificadores van a ser comúnmente conocidos por los nodos de la red y, el identificador de cada nodo estará formado por el identificador propio de la red junto con otro identificador que lo diferenciará dentro de la propia red. Los Gateways serán los únicos dispositivos que poseerán dos direcciones ya que forman parte de dos o más regiones simultáneamente.
4. Regiones
En redes DTN aparte de autenticar a los usuarios y la integridad de los mensajes, se autentica también los nodos por los que va atravesando el mensaje desde un origen hasta llegar a un destino. De esta manera se evita el tráfico ilegal y se conservan recursos.
En las redes DTN tanto los mensajes como los nodos tienen su propio par de claves (pública y privada) así como su propio certificado. En los certificados se indica el tipo de calidad de servicio requerida para los envíos de los mensajes.
Cuando un emisor quiere enviar un mensaje, lo firman con su clave privada. Los receptores, usando la clave pública pueden verificar la autenticidad del mensaje, la integridad y la clase de servicio requerida.
5. Seguridad
6. Ejemplo de comunicación
Por ejemplo, vamos a ver cómo sería una comunicación desde la Tierra hasta Marte. Iremos viendo cómo se va transmitiendo el mensaje de nodo a nodo.
Las direcciones de origen y destino van a ser las siguientes:
{earth.sol.int, src.jpl.nasa.gov:6769} y {mars.sol.int, dst.jpl.nasa.gov:6769} respectivamente.
Cuando se crea el mensaje, aparte de la dirección de origen y destino, también se especifica la firma, la clase de servicio y los datos de usuario.
Primero creamos el mensaje: la bundle layer comprueba la firma de la fuente de los datos, crea un mensaje y añade la cabecera y su firma. Seguidamente almacena el mensaje hasta que pueda ser enviado.
Posteriormente a la creación del mensaje, nos disponemos a la transmisión del mismo. Es el mismo protocolo de mensaje quien consulta su tabla de rutas y determina que el Gateway de la Tierra se encuentra en la dirección {earth.sol.int, ipngw1.jpl.nasa.gov:6769}. Este es el siguiente nodo en la trayectoria del paquete hacia el destino. También averigua que el protocolo de transporte que debe usar es TCP.
Es el momento de transmitir el mensaje.
El emisor envía una copia del mensaje al Gateway de la Tierra usando TCP como protocolo de transporte. Entonces el emisor queda a la espera de recibir la aceptación por parte del Gateway del mensaje. El mensaje se transmite bajo custodia.
Al recibir el Gateway de la tierra el mensaje, cierra la conexión TCP establecida. Esto es así ya que el protocolo de transporte utilizado en la comunicación hacia este nodo ha sido TCP. El Gateway verifica la firma del emisor así como la clase de servicio establecida. Cuando se verifica la validez del mensaje, el protocolo de mensaje cambia la firma. Aun así, conserva la firma del creador del mensaje. Y ahora almacena el mensaje en sus dispositivos de almacenamiento.
El Gateway de la Tierra, consulta la tabla de rutas y determina la dirección siguiente: {mars.sol.int, ipngw2.jpl.nasa.mars.org:6769}. Consulta también cuando este nodo estará disponible para enviarle el mensaje sólo cuando el receptor sea capaz de recibirlo. Entonces confirma el TTL y si puede enviar el mensaje, y entonces envía un mensaje al nodo de quien recibió el mensaje a transmitir comunicándole que ya puede borrar su copia del mensaje, que ya se encarga él de enviarlo.
Cuando llegue la hora establecida en la cual el receptor vaya a estar disponible, se envía el mensaje.
Cuando el mensaje llega al Gateway de Marte, aparte de hacer los pasos descritos anteriormente, descubre que el protocolo de transporte utilizado en la nueva región es TCP. De manera que el Gateway prepara el mensaje para una conexión TCP con el siguiente nodo, que ya será el destino. Y finalmente es enviado al destino.
El nodo destino recibe el mensaje vía una conexión TCP. El destino entonces cierra la conexión y comprueba la firma del nodo anterior. Almacena el mensaje, acepta la custodia e informa al Gateway de que ya puede borrar su copia.
Para finalizar, la capa de mensaje invoca a la aplicación por encima de él a quien va destinado el mensaje. Dependiendo de la aplicación, opcionalmente puede generar "acknowledgements" dirigidos al emisor del mensaje para confirmar la recepción.
1.
Los protocolos existentes hasta a fecha y que se comparan a gran escala con TCP/IP respectivamente son:
1. Bundle Protocol (RFC 5050)
2. ESPECIFICACIÓN DE PROTOCOLOS ACTUALES.
Intercambio de mensajes, puede ser una buena traducción de "bundles" según los investigadores del DTNRG. Acá queremos dar una breve especificación tomada de la Referencia 5050 de la IETF.
Las DTN son utilizadas en ambientes realmente cambiantes con una conectividad intermitente, largos y/o variables retrasos y una tasa alta de errores en la transferencia de bits. Para proveer servicios en las DTN, el BP se establece sobre la capa de aplicación para formar una red de almacenamiento y envío con el fin de que los datos lleguen al otro punto de conexión. Algunas de las capacidades de este protocolo son:
* Retransmisión basada en custodia.
* Capacidad de sobrellevar conectividad intermitente.
* Capacidad de conexiones oportunistas, predictadas y planeadas (con el fin de prepara una conexión continua).
Este es un protocolo experimental, producido en el DTNRG y alimentado por consenso de muchos contribuyentes al grupo.
Las características aún más específicas de este protocolo se encuentran en el Anexo 1.
1. Licklider Transmission Protocol (LTP) (RFC en proceso)
Es un protocolo de retransmisión para una comunicación segura entre dos puntos en un ambiente de tolerancia a retrasos. Nombrado en honor a Joseph Carl Robnett Licklider, científico estadounidense primero en articular la idea de una red de computadoras intergaláctica en sus inicios en 1962, Vint Cerf tuvo la iniciativa de este nombre. Por otro lado, también se la designado como un protocolo de convergencia para los pilares interplanetarios de una red tolerante a retrasos "end-to-end". Este protocolo se puede compara para su compresión con el protocolo TCP.
El funcionamiento de este protocolo se fundamente en la transmisión de un bloque de datos dividido en segmentos. Cuando estos segmentos son transmitimos, algunos son señalados como "checkpoints". Cuando un "checkpoint" es recibido, el receptor retorna un reporte de recepción acumulativa. Si los puntos de revisión no son explícitos los datos se vuelven a reenviar por medio de un "timer" que periódicamente revisa la recepción de puntos de revisión.
Dentro de las habilidades de este protocolo se destacan:
Tolera la interrupción de los enlaces sin pérdida de datos.
Designado para imponer un mínimo recargo en enlaces de baja capacidad y/o enlaces asimétricos.
Los segmentos pueden ser expandidos (seguridad de código).
Retransmisión acelerada: múltiples revisión de estado por bloque transmitido.
Certeza parcial: los puntos de revisión y retransmisión se pueden habilitar solamente por las primeros N bytes de un bloque.
Para las especificaciones mas detallas del protocolo favor ver el Anexo 2.
2.
El proyecto original conocido como Interplanet se ha expandido y crecido sustancialmente y se ha re-fundamentado en una arquitectura más global y con énfasis en las DTN, actualmente en el sitio web del DTNRG (http://www.dtnrg.org) existen accesos a artículos e investigaciones en los cuales se discute la situación pasada y actual de las aplicaciones de las DTN y los problemas que presentan en las redes terrestres. Por otro lado, es importante resaltar que la arquitectura de las DTN y el Bundle Protocol están documentados como estándares de referencia del IET.
Actualmente, está iniciando lo que parece ser una actividad muy seria para implementar esta tecnología antes mencionada en comunicaciones de vuelos espaciales, tal y como lo imaginaron cuando el proyecto empezó en 1998.
En adición a esto, también se tiene proyectado la instalación de esta tecnología a bordo de la Estación Espacial Internacional (ISS), está pendiente aún una discusión más profunda. También se está trabajando en un plan pruebas en Octubre para la nave "Deep Impact", cuyos datos no se sabrán hasta dentro de unos meses.
Actualmente, el LTP está en proceso de inscripción como una norma del RFC y el protocolo se encuentra en perfeccionamiento y Steven Farrel está trabajando en su implementación.
3. ÚLTIMOS AVANCES
Interplanet es un proyecto con el cual se verá beneficiada toda la humanidad, debido que se podrán estudiar datos enviados desde Marte y poder validar aún más la posibilidad de que ese planeta sea habitable algún día.
La investigación científica se verá fortalecida, pues la facilidad de analizar datos más confiables y de una manera más rápida, imágenes nítidas y confiables.
El desarrollo de este proyecto y específicamente de los protocolos, modificará ciertos estándares conocidos como el modelo OSI, pues ha aparecido otra capa que deberá ser agregada a los estándares.
La posibilidad de enviar y recibir datos entre redes tolerantes a retrasos, ayudará a que la conectividad incluso aquí en la tierra se vea sustancialmente mejorado, pues ya no importará el medio y los retrasos.
Es un proyecto que todavía le falta mucho por terminar, por lo que está aún pendiente la culminación de los protocolos BP y LTP, pues están en un periodo experimental.
La importancia fundamental radica en que los datos lleguen legibles y completos, sin que estos sean afectados, por ambientes completamente heterogéneos.
Este proyecto desprende mucha documentación que puede ser aprovechada para artículos, desarrollo y proyectos que integren los protocolos antes mencionados.
Los países podrán tomar ventaja de esta tecnología al realizar alianzas de investigación, tanto académicas como empresariales.
4. CONCLUSIONES Y REFLEXIONES
5. Referencias
Estudio de la Interplanet. En: http://www.ipnsig.org/aboutstudy.htm. Visitado el: 23/3/2008
Internet Interplanetario. En: http://en.wikipedia.org/wiki/Interplanetary_Internet Visitado el: 23/3/2008
NASA. En: http://es.wikipedia.org/wiki/NASA Visitado el: 23/3/2008
Gobierno del Internet. En: http://www.wgig.org/docs/SociedadNorte-CommentApril.doc Visitado el: 23/3/2008
Internet Research Task Force Research Group. (DTNRG). En: http://www.dtnrg.org.Visitado el: 26/3/2008
DTN Architecture Document: En: http://tools.ietf.org/group/irtf/draft-irtf-dtnrg-arch-08.txt. Visitado el: 26/3/2008
Delay-Tolerant Networking: An Approach to Interplanetary Internet: Scott Burleigh, Adrian Hooke, and Leigh Torgerson, Jet Propulsion Laboratory
En: http://www.dtnrg.org/papers/ieee-comsoc-article.pdf. Visitado el: 26/3/2008
InterPlaNetary Internet: state-of-the-art and research challenges: Ian F. Akyildiz, Chao Chen, Jian Fang, Weilian Su. En: http://www.ece.gatech.edu/research/labs/bwn/space.pdf. Visitado el: 26/3/2008
Technologies for the InterPlanetary Network. Dr. James R. Lesh Chief Technologist & Manager, Technology Office Interplanetary Network and Information Systems Directorate Jet Propulsion Laboratory California Institute of Technology
En: http://www.ipnsig.org/reports/Lesh-IPN-Technologies.pdf. Visitado el: 26/3/2008.
TOWARDS AN INTERPLANETARY INTERNET: A PROPOSED STRATEGY FOR STANDARDIZATION. Adrian J. Hooke Jet Propulsion Laboratory, California Institute of Technology Pasadena, California, USA. En: http://www.ipnsig.org/reports/SpaceOps-Oct-2002.pdf. Visitado el: 28/3/2008
Delay-Tolerant Networks (DTNs): Forrest Warthman Warthman Associates
En: http://ipnsig.org/reports/DTN_Tutorial11.pdf. Visitado el: 28/3/2008
Borrador de la especificación RFC del IPN. En: http://ipnsig.org/reports/draft-irtf-ipnrg-arch-01.txt. Visitado el: 28/3/2008
Agradecimiento especial para:
Scott Burleigh del Laboratorio de Propulsión a Chorro de la NASA.
Steven Farrell del Grupo de Investigación de la Red Interplanetaria
Special thanks to:
Scott Burleigh of the Jet Propulsion Lab (JPL) - NASA.
Steven Farrell of the IPNSIG (Interplanet Special Interest Group).
Autor:
Edgar A. Vega Briceño
edgar.vega[arroba]yahoo.es
Ingeniero en Informática, Universidad Nacional de Costa Rica
Sobre el autor de este trabajo:
Edgar A. Vega Briceño, Ingeniero en Informática de la Universidad Nacional de Costa Rica y actualmente ostentando el grado de Máster en Administración de las Tecnologías de Información y Comunicación en la misma Universidad. Profesor universitario e investigador en temas relacionados con TI.
Red interplanetaria Interplanet (IPN)
Fuente: http://www.monografias.com/trabajos60/red-interplanetaria/red-interplanetaria.shtml
Enviado por Edgar A. Vega Briceño
Partes: 1, 2
1. Resumen Ejecutivo
2. Introducción
3. Marco Teórico
4. Marco Referencial
5. Internet Interplanetario (IPN)
6. Últimos avances
7. Conclusiones y reflexiones
8. Referencias
RESUMEN EJECUTIVO
El presente trabajo de investigación tiene contemplada la descripción de un avance muy importante de las telecomunicaciones a nivel mundial y enfáticamente a nivel extraterrestre, aunque se oiga de ciencia ficción, es algo que se está alejando cada vez más de ese concepto. Tan impactante como el nacimiento de Internet o la primera vez que una sonda espacial se acercó a un cometa para lograr capturar datos de sus componentes (misión Deep Impact).
Desde el año 1998 se inició una investigación, donde la NASA y el Laboratorio de Propulsión a Chorro han sido pioneros, muy importante para lograr una conectividad de Internet entre naves espaciales, satélites y posibles bases espaciales en el planeta Marte, con la Tierra. Retos muy duros como luchar con un medio diferente, tiempos de retardos muy grandes (p.e 20 minutos entre Marte y la Tierra), protocolos no funcionales en el espacio, han tenido que ser asumidos por un grupo muy importante de investigadores de varios lugares del mundo, donde resalta la participación de Vinton Cerf, Socott Borleigh y Steven Farrel, reconocidos a nivel mundial en el campo de la computación, para lo que hoy se le denomina Red Interplanetaria (IPN) y que actualmente también se ha orientado más al estudio de Redes Tolerantes a Retrasos (DTN).
Para efectos de la investigación se ha realizado una descripción importante de los precedentes, descripción general de la arquitectura y de dos protocolos recientes para lograr conectividad entre DTN`s como lo son el Bundle Protocol (BP) y el Licklider Transmision Protocol (LTP).
Se describe un poco la situación actual del proyecto, sus avances y estado actual y un ejemplo de una transmisión de datos por la Interplanet.
Es de suma importancia recalcar que toda la información recolectada estaba en idioma inglés, por lo que se tuvo que realizar un trabajo importante de transcripción.
Las conclusiones serán orientadas a una comprensión general de las ventajas que traerá para toda la humanidad una Red Interplanetaria.
INTRODUCCIÓN
No está lejos el día en que podamos recibir un correo desde Venus o mandar datos a Plutón: la NASA pretende crear una red interplanetaria que mejore las intercomunicaciones de cara a futuras misiones tripuladas a Marte y otros puntos del sistema solar. Esta noticia parece nacer de la más imposible de las películas de ciencia ficción pero gracias a los avances en las comunicaciones ahora parece vislumbrarse esta fantástica posibilidad.
"Ha llegado el momento de pensar más allá de la tierra, tenemos que llevar Internet a cualquier rincón del sistema solar incluso más lejos" esta sería una idea fundamental en esta actual era espacial.
Existen visionarios que contemplan la posibilidad de que la NASA ponga en marcha un proyecto denominado INTERPLANET (IPN) este proyecto surge de la necesidad de que para las próximas misiones a Marte se necesitará un canal de comunicación con la tierra más seguro y potente que los usados hasta ahora.
En los últimos años las misiones espaciales de la NASA presentaron problemas precisamente por numerosos problemas de trasmisión y recepción de señales y no se pudieron determinar con precisión las causas del fracaso. Es cierto que otras misiones tuvieron más éxito y que de ellas obtuvimos mucha información del planeta rojo en especial espectaculares imágenes de la superficie marciana. Sin embargo, el caudal de datos que se envío a nuestro planeta fue de tan solo 300 bits por segundo, cuando cualquier computador domestico es capaz de hacerlo a velocidades mucho mayores.
La IPN podría solventar estas limitaciones, dado que alcanzaría unas órdenes de transmisión de 11.000 bits por segundo, una velocidad de transmisión de transferencia de datos todavía inferior a la que presta un computador doméstico, pero suficiente para enviar imágenes muy detalladas y de altísima calidad, de los paisajes marcianos con la IPN operativa entre la tierra y Marte entre unos años se podría enviar imágenes de alta resolución para usos científicos y de ocio, por ejemplo, los videos obtenidos por el todo terreno facilitarían la creación de escenarios tan reales que podrían sumergir al público en viajes virtuales al planeta rojo.
Según todo esto si se llegara a cumplir los planes previstos la red interplanetaria será capaz de proporcionar a la gente de la calle las emociones de los viajes espaciales como los que nos presenta el cine. La tecnología abrirá las puertas del cosmos a millones de personas cualquier usuario de Internet podrá visitar desde la pantalla de su computadora los anillos de Saturno y otros cuerpos estelares así como sobrevolar la gigantesca mancha roja de Júpiter. Sin embargo la verdadera importancia de IPN radica en su fiabilidad a la hora de mantener un cordón umbilical de comunicación entre las sondas espaciales y las bases de control terrestre.
Partes: 1, 2
Enviado por Edgar A. Vega Briceño
Partes: 1, 2
1. Resumen Ejecutivo
2. Introducción
3. Marco Teórico
4. Marco Referencial
5. Internet Interplanetario (IPN)
6. Últimos avances
7. Conclusiones y reflexiones
8. Referencias
RESUMEN EJECUTIVO
El presente trabajo de investigación tiene contemplada la descripción de un avance muy importante de las telecomunicaciones a nivel mundial y enfáticamente a nivel extraterrestre, aunque se oiga de ciencia ficción, es algo que se está alejando cada vez más de ese concepto. Tan impactante como el nacimiento de Internet o la primera vez que una sonda espacial se acercó a un cometa para lograr capturar datos de sus componentes (misión Deep Impact).
Desde el año 1998 se inició una investigación, donde la NASA y el Laboratorio de Propulsión a Chorro han sido pioneros, muy importante para lograr una conectividad de Internet entre naves espaciales, satélites y posibles bases espaciales en el planeta Marte, con la Tierra. Retos muy duros como luchar con un medio diferente, tiempos de retardos muy grandes (p.e 20 minutos entre Marte y la Tierra), protocolos no funcionales en el espacio, han tenido que ser asumidos por un grupo muy importante de investigadores de varios lugares del mundo, donde resalta la participación de Vinton Cerf, Socott Borleigh y Steven Farrel, reconocidos a nivel mundial en el campo de la computación, para lo que hoy se le denomina Red Interplanetaria (IPN) y que actualmente también se ha orientado más al estudio de Redes Tolerantes a Retrasos (DTN).
Para efectos de la investigación se ha realizado una descripción importante de los precedentes, descripción general de la arquitectura y de dos protocolos recientes para lograr conectividad entre DTN`s como lo son el Bundle Protocol (BP) y el Licklider Transmision Protocol (LTP).
Se describe un poco la situación actual del proyecto, sus avances y estado actual y un ejemplo de una transmisión de datos por la Interplanet.
Es de suma importancia recalcar que toda la información recolectada estaba en idioma inglés, por lo que se tuvo que realizar un trabajo importante de transcripción.
Las conclusiones serán orientadas a una comprensión general de las ventajas que traerá para toda la humanidad una Red Interplanetaria.
INTRODUCCIÓN
No está lejos el día en que podamos recibir un correo desde Venus o mandar datos a Plutón: la NASA pretende crear una red interplanetaria que mejore las intercomunicaciones de cara a futuras misiones tripuladas a Marte y otros puntos del sistema solar. Esta noticia parece nacer de la más imposible de las películas de ciencia ficción pero gracias a los avances en las comunicaciones ahora parece vislumbrarse esta fantástica posibilidad.
"Ha llegado el momento de pensar más allá de la tierra, tenemos que llevar Internet a cualquier rincón del sistema solar incluso más lejos" esta sería una idea fundamental en esta actual era espacial.
Existen visionarios que contemplan la posibilidad de que la NASA ponga en marcha un proyecto denominado INTERPLANET (IPN) este proyecto surge de la necesidad de que para las próximas misiones a Marte se necesitará un canal de comunicación con la tierra más seguro y potente que los usados hasta ahora.
En los últimos años las misiones espaciales de la NASA presentaron problemas precisamente por numerosos problemas de trasmisión y recepción de señales y no se pudieron determinar con precisión las causas del fracaso. Es cierto que otras misiones tuvieron más éxito y que de ellas obtuvimos mucha información del planeta rojo en especial espectaculares imágenes de la superficie marciana. Sin embargo, el caudal de datos que se envío a nuestro planeta fue de tan solo 300 bits por segundo, cuando cualquier computador domestico es capaz de hacerlo a velocidades mucho mayores.
La IPN podría solventar estas limitaciones, dado que alcanzaría unas órdenes de transmisión de 11.000 bits por segundo, una velocidad de transmisión de transferencia de datos todavía inferior a la que presta un computador doméstico, pero suficiente para enviar imágenes muy detalladas y de altísima calidad, de los paisajes marcianos con la IPN operativa entre la tierra y Marte entre unos años se podría enviar imágenes de alta resolución para usos científicos y de ocio, por ejemplo, los videos obtenidos por el todo terreno facilitarían la creación de escenarios tan reales que podrían sumergir al público en viajes virtuales al planeta rojo.
Según todo esto si se llegara a cumplir los planes previstos la red interplanetaria será capaz de proporcionar a la gente de la calle las emociones de los viajes espaciales como los que nos presenta el cine. La tecnología abrirá las puertas del cosmos a millones de personas cualquier usuario de Internet podrá visitar desde la pantalla de su computadora los anillos de Saturno y otros cuerpos estelares así como sobrevolar la gigantesca mancha roja de Júpiter. Sin embargo la verdadera importancia de IPN radica en su fiabilidad a la hora de mantener un cordón umbilical de comunicación entre las sondas espaciales y las bases de control terrestre.
Partes: 1, 2
domingo, 18 de abril de 2010
SI TU CAMBIAS TODO CAMBIA
Por Starviewer Team
Carl Gustav Jung (1875-1961) fue el primero de la era le llevó a la filosofía, la mitología, la alquimia, las religiones orientales y el misticismo occidental. Abrió la puerta al relativismo psicológico, y situó el estudio del inconsciente en un primer plano, por encima del consciente, e iniciando un nuevo camino muy poco transitado por el conocimiento académico. Para él, incluso había algo más global y suprapersonal que denominó inconsciente colectivo. Éste, común a toda la humanidad, contendría la herencia mental de la evolución humana.
Jung observó símbolos de naturaleza universal, que llamó arquetipos, y que estaban relacionados con una serie de experiencias comunes en distintos pueblos y culturas (infancia y vejez, muerte, embarazo y parto, el amor,…). Estas experiencias se estructurarían y organizarían en campos comunes (arquetipos) dentro del inconsciente colectivo: como el del padre, madre, niño, amante, héroe, sabio, etc. Sería como si una idea común se hubiera concretado en cada uno de los pueblos de la tierra a lo largo de su historia, cambiando conforme las vivencias de esos pueblos variaban, pero permaneciendo siempre un remanente colectivo que estaría presente en cada uno de los individuos de las nuevas generaciones.
En los años 20, se inició un experimento en la Universidad de Harvard que fue continuado en Escocia y Australia. El fisiólogo y doctor William McDougall intentaba medir, en unos experimentos de psicología animal, cómo las ratas heredaban la inteligencia de sus progenitores. En sus experimentos colocaba a los roedores en un pequeño laberinto para medir su inteligencia. Las ratas más “inteligentes” resolvían el laberinto con mayor rapidez y eran emparejadas con otras ratas inteligentes. Lo mismo hacía con las más torpes. Es decir, las inteligentes se apareaban entre si, y las torpes solo entre ellas.
Veintidós generaciones después, todas las camadas de ratas, inteligentes y torpes recorrían el laberinto diez veces más rápido que cualquier rata de la primera generación. ¿Cómo era posible que las camadas más recientes de ratas lentas hubieran aprendido a recorrer el laberinto aún más rápido que las ratas inteligentes originales?, ¿Qué conexión había entre la primera generación de ratas y la última? Posibles explicaciones de este fenómeno llegarían a finales del siglo pasado de la mano de revolucionarias ideas, como por ejemplo, la teoría de la resonancia mórfica (Sheldrake, 1995). Sigamos viendo otros experimentos y fenómenos naturales curiosos.
En los años 50 el biólogo Lyall Watson observó en la isla de Koshima, próxima a Japón, a una colonia de monos Macaca Fuscata en estado salvaje durante varios años. En 1952, los científicos empezaron a proporcionar a los monos batatas dulces que arrojaban sobre la arena. Al principio los monos comían los tubérculos con algo de arena, hasta que una hembra joven, llamada Imo, comenzó a lavar las batatas y pronto otros monos aprendieron este comportamiento.
Entre 1952 y 1958, todos los monos jóvenes lavaban las batatas antes de comérselas. Sólo los adultos que imitaron a sus crías incorporaron este cambio. Otros adultos siguieron comiendo las batatas con arena.
Lo descrito hasta este momento no dejaría de ser un mero aprendizaje por imitación (Miller y Dollard, 1941) o también llamado aprendizaje vicario (Bandura y Walters, 1963), es decir, hay un modelo del que se aprende algo por observación.
Sin embargo, en el otoño de 1958, a partir de un determinado instante, diríase mejor de un determinado mono, TODOS los primates de la tribu lavaban las batatas antes de comerlas. Y la sorpresa no quedó ahí, hubo algo que aun les impresionó más a estos investigadores. Sin que los monos de Koshima salieran de la isla, la conducta de lavar las batatas antes de comerlas se había extendido a otros monos del archipiélago ¡e incluso del continente!
El hábito aparentemente saltó las barreras naturales y apareció en otras islas e incluso en Takasakiyama, en Japón. Científicamente no se encontró ninguna explicación. A partir de un mono, imaginemos que fuese el número cien, el centésimo mono, se produjo una explosión de conocimiento que fue automáticamente incorporada por todos los miembros de su especie, sin importar la distancia a la que se encontraran (Watson, 1979).
Otro interesante fenómeno ocurrió con aves a mediados del siglo pasado. Los herrerillos azules son pequeños pájaros de cabezas azuladas muy comunes en Gran Bretaña. Aún hoy se reparte leche fresca en algunos lugares de Gran Bretaña. Hasta los años 50, los tapones de las botellas de leche se hicieron de cartón.
En 1921, en Southampton, Gran Bretaña, quienes recogían sus botellas de leche observaron un curioso fenómeno. Al recogerlas había pequeños trozos de cartulina alrededor de la base de la botella, y la crema de la parte superior de la botella había desaparecido. El hecho apareció en otro lugar de Gran Bretaña, a unas 50 millas de distancia; y después en algún otro lugar a 100 millas. El fenómeno se extendió supuestamente por imitación –diría la psicología del aprendizaje clásica-, sin embargo, los herrerillos azules son criaturas que normalmente no viajan más de cuatro o cinco millas. Por lo tanto, la expansión de ese comportamiento sólo podía explicarse en términos de un descubrimiento independiente del hábito.
Ese hábito fue cartografiado por toda Gran Bretaña hasta 1947 y para entonces era bastante universal, quienes realizaron el estudio, concluyeron que debió ser “inventado” de manera independiente al menos 50 veces. Pero aún hay más, el ritmo de extensión del hábito se aceleró con el tiempo. En otros lugares de Europa donde las botellas de leche son repartidas al pie de las escaleras de las casas, como en Escandinavia y Holanda, el hábito también afloró durante los años 30, extendiéndose muy similarmente.
Pero aún se puede dar una vuelta más de tuerca, y es que existe una evidencia aún más fuerte de un proceso desconocido de transmisión del conocimiento. La ocupación alemana en Holanda, hizo que cesara el reparto de leche durante varios años, reanudándose en 1948. Si un herrerillo azul suele vivir tres años, probablemente no quedarían herrerillos azules de la época en la que la leche fue repartida por última vez. Sin embargo, al retomar el reparto de leche en 1948, la apertura de botellas de leche por los herrerillos azules surgió rápidamente en lugares bastante separados de Holanda, se extendió con rapidez y surgió independientemente con una frecuencia mucho mayor en esta segunda ocasión. Esto prueba que un nuevo hábito probablemente dependería en mayor medida de un tipo de memoria colectiva que de la genética.
De nuevo al alcanzar ese conocimiento un determinado sujeto, todos los individuos de la especie, sin importar ni la distancia ni el tiempo, lo incorporan automáticamente.
Quizás podríamos pensar que estas experiencias fueron casualidad y que no ocurren en otros entornos, especies o entidades físicas. Sin embargo, existen multitud de experimentos en plantas e incluso en estructuras físicas como cristales o en niveles atómicos y cuánticos en algunas partículas.
En experimentos con sustancias se han obtenido también resultados cuanto menos sorprendentes. Algunas de ellas son muy difíciles de cristalizar en el laboratorio. Sin embargo, si en uno de ellos se tiene éxito en la tarea, la sustancia en cuestión comienza a cristalizar con mayor facilidad en otros laboratorios del resto del mundo. Al principio se pensó que la causa pudiera ser que investigadores visitantes portaran diminutos trozos de cristal en sus ropas o en sus barbas. Pero finalmente esta causa fue desechada.
Aparentemente los cristales aprenden: 40 años después del descubrimiento de la glicerina, solía aceptarse que ésta no formaba cristales. Cierto día a principios del siglo XIX, un bidón de glicerina transportado de Viena a Londres comenzó a cristalizarse.
Muy poco tiempo después, en otro lugar muy distinto, otra carga de glicerina cristalizó. Los casos se extendieron y hoy se la glicerina forma cristales cuando la temperatura desciende a menos de 17°C. Esto mismo ha ocurrido con otras muchas sustancias.
Edgard Morín (Nuevos Paradigmas, Cultura y Subjetividad. D. Fried Schniyman Ed. Paidos B. Aires 457 pg.) relata textualmente: “Hace poco se descubrió que hay una comunicación entre los árboles de una misma especie. En una experiencia realizada por científicos, se quitaron todas las hojas a un árbol para ver cómo se comportaba. El árbol reaccionó de un modo previsible, es decir, que empezó a segregar savia más intensamente para reemplazar rápidamente las hojas que le habían sacado. Y también segregó una sustancia que lo protegía contra los parásitos. Pero lo que es interesante es que los árboles vecinos de la misma especie empezaron a segregar la misma sustancia antiparasitaria que el árbol agredido”.
Pareciera que cualquier entidad física viva o inerte tuviera un soporte más sutil por el que se expande y a través del cual recoge la información necesaria de su especie para dar un salto en su evolución cada cierto tiempo, o quizás, cada cierto número de unidades, sujetos o individuos.
El Dr. Rupert Sheldrake, biólogo y filósofo británico, planteó una hipótesis que intentaba explicar estos experimentos y fenómenos: los Campos morfogenéticos, o campos no locales como prefiere llamarlos. Según el propio Sheldrake:
“Morfo viene de la palabra griega morphe, que significa forma. Los campos morfogenéticos son campos de forma; campos, patrones o estructuras de orden. Estos campos organizan no solo los campos de organismos vivos sino también de cristales y moléculas. Cada tipo de molécula, cada proteína por ejemplo, tiene su propio campo mórfico -un campo de hemoglobina, un campo de insulina, etc. De igual manera cada tipo de cristal, cada tipo de organismo, cada tipo de instinto o patrón de comportamiento tiene su campo mórfico. Estos campos son los que ordenan la naturaleza. Hay muchos tipos de campos porque hay muchos tipos de cosas y patrones en la naturaleza…”
Podríamos decir que esta hipótesis, al haber sido replicada en multitud de experimentos, pasaría a convertirse en teoría, sosteniendo que de alguna manera todos estamos interconectados (Gregg Braden, 2000), de forma que existiría una matriz que conecta toda la realidad visible e invisible, y que los cambios en una parte de la misma, afectan a otras partes de esa realidad. Algo semejante se desprende del principio de incertidumbre de Heisenberg (1927) cuando postula que un observador del mundo subatómico afecta a los resultados por el mero hecho de observar, convirtiéndose en participante.
Lynne Mctaggart (El campo, 2007) sostendría la misma idea que Braden: Todos estamos conectados, existe un campo que responde al poder de la intención y que a partir de una determinada masa crítica los cambios en sujetos individuales se extienden a todo el colectivo automáticamente.
Según la teoría de Sheldrake los genes, por ejemplo, serían el mecanismo físico que recibe la información del campo morfogenético, como la radio o la televisión reciben sus señales. Explicaría también la transmisión de la información a individuos de la misma especie de forma simultánea, pero separados en el espacio y en el tiempo.
Para verificar o refutar su propia teoría, Sheldrake realizó dos experimentos con humanos: “El primer experimento fue patrocinado por la revista New Scientist, de Londres, y el segundo por la Brain/Mind Bulletin, de Los Angeles.
En el experimento patrocinado por New Scientist, a personas de distintas partes del mundo se les dio un minuto para encontrar rostros famosos escondidos en un dibujo abstracto. Se tomaron datos y se elaboraron medias. Posteriormente la solución fue emitida por la BBC en una franja horaria donde la audiencia estimada era de un millón de espectadores.
Inmediatamente de realizada la emisión, en lugares donde no se recibe la BBC, se realizó el mismo “test” sobre otra muestra de personas. Los sujetos que hallaron los rostros dentro del tiempo de un minuto fueron un 76 % mayor que la primera prueba. La probabilidad de que este resultado se debiera a una simple casualidad era de 100 contra uno. Según el Dr. Sheldrake, los campos no-locales, o campos morfogenéticos, habían transmitido la información a toda la “especie”, sin detenerse en aquellas personas que presenciaron la mencionada emisión de televisión.
En el experimento patrocinado por el Brain/Mind Bulletin de Los Angeles, a varios grupos de personas se les pidió que memorizasen 3 poemas distintos. El primero era una canción infantil japonesa, el segundo un poema de un autor japonés moderno y el tercero un galimatías sin sentido. Tal como la teoría de los campos morfogenéticos predice, la canción infantil, habiendo sido aprendida por millones de niños durante muchas generaciones, aunque éstos fueran japoneses, fue memorizada notablemente más rápido que las otras dos alternativas.”
Gary Schwarz, psicólogo de la Universidad de Yale, realizó un experimento similar en el Tarrytown Executive Conference Center de Nueva York. A estudiantes de Yale que no sabían hebreo se les mostraron palabras hebreas de tres letras, la mitad de ellas sin sentido. Los estudiantes obtuvieron mejores resultados en el reconocimiento de palabras “reales” en una proporción superior a la que cabría esperar como mero fruto del azar.
Tal vez os estéis preguntando, ¿qué implicaciones pueden tener estas cuestiones en nuestra vida diaria, que la pasamos buena parte de la misma comportándonos como autómatas, o viviendo felizmente en un mundo donde consumir o hacer lo que hay que hacer forma parte de nuestra rutina más inconsciente?, ¿Porqué debería importar ser consciente de lo que significa esta teoría?, ¿Se pueden extrapolar a nuestra especie los resultados de ese ‘centésimo mono’ que lavó las batatas y provocó la revolución en toda su especie?, ¿Influiría el pensamiento de un solo sujeto en un cambio planetario?
La teoría de la resonancia mórfica anima al cambio en nuestra manera de pensar y sentir el mundo que vivimos. Dice que la aparición de una nueva idea, sentimiento, e incluso la acción de, por ejemplo, intercambiar servicios en vez de dinero, puede ser facilitada por la resonancia procedente de personas que sintonicen con esa idea y la pongan en práctica.
Surgiendo un comportamiento totalmente nuevo, no sólo por primera vez en la historia de un individuo, sino por primera vez en el mundo. ¿Qué significa esto? Pues quizás que esté en nuestras manos cambiar el rumbo de nuestro planeta si somos capaces de generar una nueva forma de pensar, actuar o sentir, que poco a poco se materialice en nuevas formas de convivencia.
¿Realmente influyen nuestros pensamientos y los sentimientos en tal medida?, ¿Su influencia es real o fruto de la fantasía popular? Sabemos por distintos experimentos, como por ejemplo los llevados a cabo por Masaru Emoto en sus investigaciones sobre el agua (Mensajes del agua, 2003) que los pensamientos y las palabras habladas o escritas son capaces de generar un tipo de energía no visible que influye sobre la cristalización de las moléculas. Un pensamiento de paz hace que una molécula de agua cristalice de una forma completamente diferente a como lo haría el pensamiento de violencia, siendo en el primer caso cristalizaciones perfectamente ordenadas y simétricas, mientras que en el segundo aparecen estructuras desordenadas e irregulares.
En otro nivel de investigación de la realidad, conectado con el tema que estamos tratando, se sitúan las investigaciones del físico francés Alain Aspect (1982). En ellas, junto con su equipo, descubre que sometiendo a ciertas condiciones a partículas subatómicas, como los electrones, eran capaces de comunicarse entre sí con independencia de la distancia que las separase. Parecía que cada partícula individual supiera qué estaban haciendo todas las demás.
El físico cuántico David Bohm (Totalidad y el Orden implicado, 2000) exploró la unidad del universo por medio de lo que él llama “orden implicado”, que se encontraría presente en todos los seres y las cosas. Dio una respuesta a los experimentos de su colega francés opinando que sus descubrimientos implicaban la realidad objetiva no existe siendo una especie de gigantesco holograma la realidad en la que vivimos.
Para Bohm el motivo por el cual las partículas subatómicas permanecían en contacto con independencia de la distancia, reside en el hecho de que es una ilusión. Explica su teoría con un sencillo ejemplo: Imaginemos que a través de dos monitores observamos el mismo pez. En uno de ellos aparece de frente, y en otro de lado. Podría pensarse en un principio que son entidades diferentes y separadas. Podríamos pensar que son dos peces distintos e incluso creer que se comunican entre ellos a la vez. Sin embargo, al cabo de un tiempo, veríamos que hay cierta unión entre ellos, e incluso seguramente que se trata de un solo pez. Con las partículas subatómicas estaría pasando algo parecido, según Bohm. La aparente conexión entre éstas partículas nos estaría advirtiendo de un nivel más profundo de la realidad al que, de momento, no tenemos acceso. En realidad, en ese nivel, las partículas estarían conectadas entre sí, y puesto que tu, yo y todos los objetos y seres de nuestra realidad estarían constituidos por partículas como éstas, y otras, todos formaríamos parte de una inmensa red de carácter holográfico donde el fenómeno de la localidad se resquebraja al estar todo interrelacionado y unido.
Multitud de investigadores, máximos exponentes de lo nuevo, y herejes a la vez, muestran un multiuniverso en el cual cada una de sus partes, desde las partículas subatómicas pasando por una gota de agua, un ser humano, y hasta las agrupaciones de galaxias estarían conectadas, compartiendo información entre sí de forma simultánea y constante.
Quizás, la realidad física manifiesta parte de ese gran holograma del que formamos parte y sería nuestra conciencia quien lo recorrería reconociéndolo en sus más variopintas manifestaciones.
El ser humano de la Tierra es cada vez más consciente de la necesidad de empezar a utilizar todo el potencial que lleva dentro de sí mismo. Si todos y todo está conectado, tal y como nos avanza la física cuántica, deberíamos empezar a plantearnos seriamente la posibilidad de que los seres humanos como sujetos individuales, son los primeros y últimos responsables de la realidad que crean y viven a diario, tanto en el presente como para las generaciones futuras, y que el hecho de una transformación global de la humanidad pasa inexorablemente por el cambio de un individuo… de otro… y otro… y otro más, así hasta llegar a un enésimo sujeto,… supongamos que fuese el número cien, y que al cambiar ese centésimo humano, generaría una explosión de conocimiento que se transmitiría automáticamente al resto congéneres del planeta, provocando grandes corrientes de cambios planetarios que a modo de contracciones de un parto darían lugar al nacimiento una nueva era de seres humanos, una nueva humanidad. Esa nueva era que tanto esperamos que se materialice, debería nacer antes en el interior de cada uno de nosotros para luego expandirse. Seamos conscientes de lo que implica colaborar con esa masa crítica silenciosa que forman millones de personas en todo el planeta. Millones de seres que desean vivir en un mundo diferente pero que se creen desconectados cuando lo que apuntan las investigaciones es a todo lo contrario. Aprovechemos el río de conocimientos y transmisión de información que suponen las nuevas tecnologías (internet,, móvil,…), para conectar con esas ideas, sentimientos y actitudes que hablan de unión entre los seres humanos, de comprensión, de aceptación, de paz, de comunicación, de vivir la vida con esos valores que nuestra sociedad parece haber dejado en un segundo plano, y en definitiva, para dejarnos empapar de lo nuevo y formar parte de una cadena de transmisión que potencie lo global. Integremos y actualicemos, con la información que ahora tenemos, el hecho de que el todo es mayor que la suma de las partes.
Nuestro planeta y su futuro, es responsabilidad de todos y cada uno de nosotros, de nadie más. Intentemos no dar energía a lo que nos separa, a lo que nos divide. Abandonemos lo malo conocido y abrámonos a lo nuevo por conocer, cojamos nuestra batata llena de arena, hagamos algo nuevo con ella -como los monos japoneses- y daremos sentido a las palabras implicación, compromiso y humanidad, a su principal representante, el ser humano y a la herramienta que es capaz de cambiar en cada instante el futuro: el libre albedrío, escoltado por la mente y el corazón y trabajando con esos niveles sutiles que nos cuentan los investigadores más avanzados.
Intentemos ser un poco más conscientes de nuestro potencial como grupo para cambiar el planeta, pero antes, ¿Te atreves a ser tú el centésimo humano? …Yo sí.
Carl Gustav Jung (1875-1961) fue el primero de la era le llevó a la filosofía, la mitología, la alquimia, las religiones orientales y el misticismo occidental. Abrió la puerta al relativismo psicológico, y situó el estudio del inconsciente en un primer plano, por encima del consciente, e iniciando un nuevo camino muy poco transitado por el conocimiento académico. Para él, incluso había algo más global y suprapersonal que denominó inconsciente colectivo. Éste, común a toda la humanidad, contendría la herencia mental de la evolución humana.
Jung observó símbolos de naturaleza universal, que llamó arquetipos, y que estaban relacionados con una serie de experiencias comunes en distintos pueblos y culturas (infancia y vejez, muerte, embarazo y parto, el amor,…). Estas experiencias se estructurarían y organizarían en campos comunes (arquetipos) dentro del inconsciente colectivo: como el del padre, madre, niño, amante, héroe, sabio, etc. Sería como si una idea común se hubiera concretado en cada uno de los pueblos de la tierra a lo largo de su historia, cambiando conforme las vivencias de esos pueblos variaban, pero permaneciendo siempre un remanente colectivo que estaría presente en cada uno de los individuos de las nuevas generaciones.
En los años 20, se inició un experimento en la Universidad de Harvard que fue continuado en Escocia y Australia. El fisiólogo y doctor William McDougall intentaba medir, en unos experimentos de psicología animal, cómo las ratas heredaban la inteligencia de sus progenitores. En sus experimentos colocaba a los roedores en un pequeño laberinto para medir su inteligencia. Las ratas más “inteligentes” resolvían el laberinto con mayor rapidez y eran emparejadas con otras ratas inteligentes. Lo mismo hacía con las más torpes. Es decir, las inteligentes se apareaban entre si, y las torpes solo entre ellas.
Veintidós generaciones después, todas las camadas de ratas, inteligentes y torpes recorrían el laberinto diez veces más rápido que cualquier rata de la primera generación. ¿Cómo era posible que las camadas más recientes de ratas lentas hubieran aprendido a recorrer el laberinto aún más rápido que las ratas inteligentes originales?, ¿Qué conexión había entre la primera generación de ratas y la última? Posibles explicaciones de este fenómeno llegarían a finales del siglo pasado de la mano de revolucionarias ideas, como por ejemplo, la teoría de la resonancia mórfica (Sheldrake, 1995). Sigamos viendo otros experimentos y fenómenos naturales curiosos.
En los años 50 el biólogo Lyall Watson observó en la isla de Koshima, próxima a Japón, a una colonia de monos Macaca Fuscata en estado salvaje durante varios años. En 1952, los científicos empezaron a proporcionar a los monos batatas dulces que arrojaban sobre la arena. Al principio los monos comían los tubérculos con algo de arena, hasta que una hembra joven, llamada Imo, comenzó a lavar las batatas y pronto otros monos aprendieron este comportamiento.
Entre 1952 y 1958, todos los monos jóvenes lavaban las batatas antes de comérselas. Sólo los adultos que imitaron a sus crías incorporaron este cambio. Otros adultos siguieron comiendo las batatas con arena.
Lo descrito hasta este momento no dejaría de ser un mero aprendizaje por imitación (Miller y Dollard, 1941) o también llamado aprendizaje vicario (Bandura y Walters, 1963), es decir, hay un modelo del que se aprende algo por observación.
Sin embargo, en el otoño de 1958, a partir de un determinado instante, diríase mejor de un determinado mono, TODOS los primates de la tribu lavaban las batatas antes de comerlas. Y la sorpresa no quedó ahí, hubo algo que aun les impresionó más a estos investigadores. Sin que los monos de Koshima salieran de la isla, la conducta de lavar las batatas antes de comerlas se había extendido a otros monos del archipiélago ¡e incluso del continente!
El hábito aparentemente saltó las barreras naturales y apareció en otras islas e incluso en Takasakiyama, en Japón. Científicamente no se encontró ninguna explicación. A partir de un mono, imaginemos que fuese el número cien, el centésimo mono, se produjo una explosión de conocimiento que fue automáticamente incorporada por todos los miembros de su especie, sin importar la distancia a la que se encontraran (Watson, 1979).
Otro interesante fenómeno ocurrió con aves a mediados del siglo pasado. Los herrerillos azules son pequeños pájaros de cabezas azuladas muy comunes en Gran Bretaña. Aún hoy se reparte leche fresca en algunos lugares de Gran Bretaña. Hasta los años 50, los tapones de las botellas de leche se hicieron de cartón.
En 1921, en Southampton, Gran Bretaña, quienes recogían sus botellas de leche observaron un curioso fenómeno. Al recogerlas había pequeños trozos de cartulina alrededor de la base de la botella, y la crema de la parte superior de la botella había desaparecido. El hecho apareció en otro lugar de Gran Bretaña, a unas 50 millas de distancia; y después en algún otro lugar a 100 millas. El fenómeno se extendió supuestamente por imitación –diría la psicología del aprendizaje clásica-, sin embargo, los herrerillos azules son criaturas que normalmente no viajan más de cuatro o cinco millas. Por lo tanto, la expansión de ese comportamiento sólo podía explicarse en términos de un descubrimiento independiente del hábito.
Ese hábito fue cartografiado por toda Gran Bretaña hasta 1947 y para entonces era bastante universal, quienes realizaron el estudio, concluyeron que debió ser “inventado” de manera independiente al menos 50 veces. Pero aún hay más, el ritmo de extensión del hábito se aceleró con el tiempo. En otros lugares de Europa donde las botellas de leche son repartidas al pie de las escaleras de las casas, como en Escandinavia y Holanda, el hábito también afloró durante los años 30, extendiéndose muy similarmente.
Pero aún se puede dar una vuelta más de tuerca, y es que existe una evidencia aún más fuerte de un proceso desconocido de transmisión del conocimiento. La ocupación alemana en Holanda, hizo que cesara el reparto de leche durante varios años, reanudándose en 1948. Si un herrerillo azul suele vivir tres años, probablemente no quedarían herrerillos azules de la época en la que la leche fue repartida por última vez. Sin embargo, al retomar el reparto de leche en 1948, la apertura de botellas de leche por los herrerillos azules surgió rápidamente en lugares bastante separados de Holanda, se extendió con rapidez y surgió independientemente con una frecuencia mucho mayor en esta segunda ocasión. Esto prueba que un nuevo hábito probablemente dependería en mayor medida de un tipo de memoria colectiva que de la genética.
De nuevo al alcanzar ese conocimiento un determinado sujeto, todos los individuos de la especie, sin importar ni la distancia ni el tiempo, lo incorporan automáticamente.
Quizás podríamos pensar que estas experiencias fueron casualidad y que no ocurren en otros entornos, especies o entidades físicas. Sin embargo, existen multitud de experimentos en plantas e incluso en estructuras físicas como cristales o en niveles atómicos y cuánticos en algunas partículas.
En experimentos con sustancias se han obtenido también resultados cuanto menos sorprendentes. Algunas de ellas son muy difíciles de cristalizar en el laboratorio. Sin embargo, si en uno de ellos se tiene éxito en la tarea, la sustancia en cuestión comienza a cristalizar con mayor facilidad en otros laboratorios del resto del mundo. Al principio se pensó que la causa pudiera ser que investigadores visitantes portaran diminutos trozos de cristal en sus ropas o en sus barbas. Pero finalmente esta causa fue desechada.
Aparentemente los cristales aprenden: 40 años después del descubrimiento de la glicerina, solía aceptarse que ésta no formaba cristales. Cierto día a principios del siglo XIX, un bidón de glicerina transportado de Viena a Londres comenzó a cristalizarse.
Muy poco tiempo después, en otro lugar muy distinto, otra carga de glicerina cristalizó. Los casos se extendieron y hoy se la glicerina forma cristales cuando la temperatura desciende a menos de 17°C. Esto mismo ha ocurrido con otras muchas sustancias.
Edgard Morín (Nuevos Paradigmas, Cultura y Subjetividad. D. Fried Schniyman Ed. Paidos B. Aires 457 pg.) relata textualmente: “Hace poco se descubrió que hay una comunicación entre los árboles de una misma especie. En una experiencia realizada por científicos, se quitaron todas las hojas a un árbol para ver cómo se comportaba. El árbol reaccionó de un modo previsible, es decir, que empezó a segregar savia más intensamente para reemplazar rápidamente las hojas que le habían sacado. Y también segregó una sustancia que lo protegía contra los parásitos. Pero lo que es interesante es que los árboles vecinos de la misma especie empezaron a segregar la misma sustancia antiparasitaria que el árbol agredido”.
Pareciera que cualquier entidad física viva o inerte tuviera un soporte más sutil por el que se expande y a través del cual recoge la información necesaria de su especie para dar un salto en su evolución cada cierto tiempo, o quizás, cada cierto número de unidades, sujetos o individuos.
El Dr. Rupert Sheldrake, biólogo y filósofo británico, planteó una hipótesis que intentaba explicar estos experimentos y fenómenos: los Campos morfogenéticos, o campos no locales como prefiere llamarlos. Según el propio Sheldrake:
“Morfo viene de la palabra griega morphe, que significa forma. Los campos morfogenéticos son campos de forma; campos, patrones o estructuras de orden. Estos campos organizan no solo los campos de organismos vivos sino también de cristales y moléculas. Cada tipo de molécula, cada proteína por ejemplo, tiene su propio campo mórfico -un campo de hemoglobina, un campo de insulina, etc. De igual manera cada tipo de cristal, cada tipo de organismo, cada tipo de instinto o patrón de comportamiento tiene su campo mórfico. Estos campos son los que ordenan la naturaleza. Hay muchos tipos de campos porque hay muchos tipos de cosas y patrones en la naturaleza…”
Podríamos decir que esta hipótesis, al haber sido replicada en multitud de experimentos, pasaría a convertirse en teoría, sosteniendo que de alguna manera todos estamos interconectados (Gregg Braden, 2000), de forma que existiría una matriz que conecta toda la realidad visible e invisible, y que los cambios en una parte de la misma, afectan a otras partes de esa realidad. Algo semejante se desprende del principio de incertidumbre de Heisenberg (1927) cuando postula que un observador del mundo subatómico afecta a los resultados por el mero hecho de observar, convirtiéndose en participante.
Lynne Mctaggart (El campo, 2007) sostendría la misma idea que Braden: Todos estamos conectados, existe un campo que responde al poder de la intención y que a partir de una determinada masa crítica los cambios en sujetos individuales se extienden a todo el colectivo automáticamente.
Según la teoría de Sheldrake los genes, por ejemplo, serían el mecanismo físico que recibe la información del campo morfogenético, como la radio o la televisión reciben sus señales. Explicaría también la transmisión de la información a individuos de la misma especie de forma simultánea, pero separados en el espacio y en el tiempo.
Para verificar o refutar su propia teoría, Sheldrake realizó dos experimentos con humanos: “El primer experimento fue patrocinado por la revista New Scientist, de Londres, y el segundo por la Brain/Mind Bulletin, de Los Angeles.
En el experimento patrocinado por New Scientist, a personas de distintas partes del mundo se les dio un minuto para encontrar rostros famosos escondidos en un dibujo abstracto. Se tomaron datos y se elaboraron medias. Posteriormente la solución fue emitida por la BBC en una franja horaria donde la audiencia estimada era de un millón de espectadores.
Inmediatamente de realizada la emisión, en lugares donde no se recibe la BBC, se realizó el mismo “test” sobre otra muestra de personas. Los sujetos que hallaron los rostros dentro del tiempo de un minuto fueron un 76 % mayor que la primera prueba. La probabilidad de que este resultado se debiera a una simple casualidad era de 100 contra uno. Según el Dr. Sheldrake, los campos no-locales, o campos morfogenéticos, habían transmitido la información a toda la “especie”, sin detenerse en aquellas personas que presenciaron la mencionada emisión de televisión.
En el experimento patrocinado por el Brain/Mind Bulletin de Los Angeles, a varios grupos de personas se les pidió que memorizasen 3 poemas distintos. El primero era una canción infantil japonesa, el segundo un poema de un autor japonés moderno y el tercero un galimatías sin sentido. Tal como la teoría de los campos morfogenéticos predice, la canción infantil, habiendo sido aprendida por millones de niños durante muchas generaciones, aunque éstos fueran japoneses, fue memorizada notablemente más rápido que las otras dos alternativas.”
Gary Schwarz, psicólogo de la Universidad de Yale, realizó un experimento similar en el Tarrytown Executive Conference Center de Nueva York. A estudiantes de Yale que no sabían hebreo se les mostraron palabras hebreas de tres letras, la mitad de ellas sin sentido. Los estudiantes obtuvieron mejores resultados en el reconocimiento de palabras “reales” en una proporción superior a la que cabría esperar como mero fruto del azar.
Tal vez os estéis preguntando, ¿qué implicaciones pueden tener estas cuestiones en nuestra vida diaria, que la pasamos buena parte de la misma comportándonos como autómatas, o viviendo felizmente en un mundo donde consumir o hacer lo que hay que hacer forma parte de nuestra rutina más inconsciente?, ¿Porqué debería importar ser consciente de lo que significa esta teoría?, ¿Se pueden extrapolar a nuestra especie los resultados de ese ‘centésimo mono’ que lavó las batatas y provocó la revolución en toda su especie?, ¿Influiría el pensamiento de un solo sujeto en un cambio planetario?
La teoría de la resonancia mórfica anima al cambio en nuestra manera de pensar y sentir el mundo que vivimos. Dice que la aparición de una nueva idea, sentimiento, e incluso la acción de, por ejemplo, intercambiar servicios en vez de dinero, puede ser facilitada por la resonancia procedente de personas que sintonicen con esa idea y la pongan en práctica.
Surgiendo un comportamiento totalmente nuevo, no sólo por primera vez en la historia de un individuo, sino por primera vez en el mundo. ¿Qué significa esto? Pues quizás que esté en nuestras manos cambiar el rumbo de nuestro planeta si somos capaces de generar una nueva forma de pensar, actuar o sentir, que poco a poco se materialice en nuevas formas de convivencia.
¿Realmente influyen nuestros pensamientos y los sentimientos en tal medida?, ¿Su influencia es real o fruto de la fantasía popular? Sabemos por distintos experimentos, como por ejemplo los llevados a cabo por Masaru Emoto en sus investigaciones sobre el agua (Mensajes del agua, 2003) que los pensamientos y las palabras habladas o escritas son capaces de generar un tipo de energía no visible que influye sobre la cristalización de las moléculas. Un pensamiento de paz hace que una molécula de agua cristalice de una forma completamente diferente a como lo haría el pensamiento de violencia, siendo en el primer caso cristalizaciones perfectamente ordenadas y simétricas, mientras que en el segundo aparecen estructuras desordenadas e irregulares.
En otro nivel de investigación de la realidad, conectado con el tema que estamos tratando, se sitúan las investigaciones del físico francés Alain Aspect (1982). En ellas, junto con su equipo, descubre que sometiendo a ciertas condiciones a partículas subatómicas, como los electrones, eran capaces de comunicarse entre sí con independencia de la distancia que las separase. Parecía que cada partícula individual supiera qué estaban haciendo todas las demás.
El físico cuántico David Bohm (Totalidad y el Orden implicado, 2000) exploró la unidad del universo por medio de lo que él llama “orden implicado”, que se encontraría presente en todos los seres y las cosas. Dio una respuesta a los experimentos de su colega francés opinando que sus descubrimientos implicaban la realidad objetiva no existe siendo una especie de gigantesco holograma la realidad en la que vivimos.
Para Bohm el motivo por el cual las partículas subatómicas permanecían en contacto con independencia de la distancia, reside en el hecho de que es una ilusión. Explica su teoría con un sencillo ejemplo: Imaginemos que a través de dos monitores observamos el mismo pez. En uno de ellos aparece de frente, y en otro de lado. Podría pensarse en un principio que son entidades diferentes y separadas. Podríamos pensar que son dos peces distintos e incluso creer que se comunican entre ellos a la vez. Sin embargo, al cabo de un tiempo, veríamos que hay cierta unión entre ellos, e incluso seguramente que se trata de un solo pez. Con las partículas subatómicas estaría pasando algo parecido, según Bohm. La aparente conexión entre éstas partículas nos estaría advirtiendo de un nivel más profundo de la realidad al que, de momento, no tenemos acceso. En realidad, en ese nivel, las partículas estarían conectadas entre sí, y puesto que tu, yo y todos los objetos y seres de nuestra realidad estarían constituidos por partículas como éstas, y otras, todos formaríamos parte de una inmensa red de carácter holográfico donde el fenómeno de la localidad se resquebraja al estar todo interrelacionado y unido.
Multitud de investigadores, máximos exponentes de lo nuevo, y herejes a la vez, muestran un multiuniverso en el cual cada una de sus partes, desde las partículas subatómicas pasando por una gota de agua, un ser humano, y hasta las agrupaciones de galaxias estarían conectadas, compartiendo información entre sí de forma simultánea y constante.
Quizás, la realidad física manifiesta parte de ese gran holograma del que formamos parte y sería nuestra conciencia quien lo recorrería reconociéndolo en sus más variopintas manifestaciones.
El ser humano de la Tierra es cada vez más consciente de la necesidad de empezar a utilizar todo el potencial que lleva dentro de sí mismo. Si todos y todo está conectado, tal y como nos avanza la física cuántica, deberíamos empezar a plantearnos seriamente la posibilidad de que los seres humanos como sujetos individuales, son los primeros y últimos responsables de la realidad que crean y viven a diario, tanto en el presente como para las generaciones futuras, y que el hecho de una transformación global de la humanidad pasa inexorablemente por el cambio de un individuo… de otro… y otro… y otro más, así hasta llegar a un enésimo sujeto,… supongamos que fuese el número cien, y que al cambiar ese centésimo humano, generaría una explosión de conocimiento que se transmitiría automáticamente al resto congéneres del planeta, provocando grandes corrientes de cambios planetarios que a modo de contracciones de un parto darían lugar al nacimiento una nueva era de seres humanos, una nueva humanidad. Esa nueva era que tanto esperamos que se materialice, debería nacer antes en el interior de cada uno de nosotros para luego expandirse. Seamos conscientes de lo que implica colaborar con esa masa crítica silenciosa que forman millones de personas en todo el planeta. Millones de seres que desean vivir en un mundo diferente pero que se creen desconectados cuando lo que apuntan las investigaciones es a todo lo contrario. Aprovechemos el río de conocimientos y transmisión de información que suponen las nuevas tecnologías (internet,, móvil,…), para conectar con esas ideas, sentimientos y actitudes que hablan de unión entre los seres humanos, de comprensión, de aceptación, de paz, de comunicación, de vivir la vida con esos valores que nuestra sociedad parece haber dejado en un segundo plano, y en definitiva, para dejarnos empapar de lo nuevo y formar parte de una cadena de transmisión que potencie lo global. Integremos y actualicemos, con la información que ahora tenemos, el hecho de que el todo es mayor que la suma de las partes.
Nuestro planeta y su futuro, es responsabilidad de todos y cada uno de nosotros, de nadie más. Intentemos no dar energía a lo que nos separa, a lo que nos divide. Abandonemos lo malo conocido y abrámonos a lo nuevo por conocer, cojamos nuestra batata llena de arena, hagamos algo nuevo con ella -como los monos japoneses- y daremos sentido a las palabras implicación, compromiso y humanidad, a su principal representante, el ser humano y a la herramienta que es capaz de cambiar en cada instante el futuro: el libre albedrío, escoltado por la mente y el corazón y trabajando con esos niveles sutiles que nos cuentan los investigadores más avanzados.
Intentemos ser un poco más conscientes de nuestro potencial como grupo para cambiar el planeta, pero antes, ¿Te atreves a ser tú el centésimo humano? …Yo sí.
Suscribirse a:
Entradas (Atom)