domingo, 29 de julio de 2012

Los alimentos más destructivos del medio ambiente


Vainilla. Ya es posible fabricar vainilla sintética, con lo cual peligran la industria básica de Madagascar, isla del Índico de donde procede el 70 por ciento de toda la vainilla del mundo. 70.000 pequeños productores malgaches están asistiendo impotentes al agotamiento de su principal fuente de ingresos.

Pollo/Huevos. No sólo son catastróficos los métodos de producción industrial avícola, sino los problemas ecológicos que causan. En Indonesia se destruyen anualmente 600.000 hectáreas de bosque para cultivar soja destinada a la alimentación de pollos.

Arroz basmati. El aumento del consumo en arroces de alto rendimiento está contribuyendo a la pérdida de variedades genéticas más resistentes a las plagas. Ello conlleva una mayor utilización de fertilizantes y plaguicidas que contaminan y erosionan el suelo hasta dejarlo improductivo.

Pimienta. Es la reina de las especias, objeto de tráfico comercial desde hace 3.000 años. El escritor francés Jacques Attali asegura que contribuyó a la creación de la Compañía Holandesa de las Indias Orientales, que a su vez generó el capitalismo moderno.

Café. La economía de muchos países en desarrollo depende de este producto. Tanto es así que, tras el petróleo, es el producto de exportación legal que mayor valor origina. Eso pone a estas naciones a merced de los vaivenes del mercado. Por otra parte, los productores sólo reciben una pequeña cantidad por parte de las grandes compañías cafeteras multinacionales, por lo que se ha creado la fórmula de “comercio justo” que pone el producto directamente en el consumidor occidental sin que los beneficios se pierdan en esas empresas.

Azúcar. Su cultivo supuso arrasar los bosques de Canarias y Madeira, exterminar y esclavizar a los guanches e introducir el esclavismo en América. Miles de hectáreas de bosque son cada año expoliadas en favor de la preciosa caña de azúcar.

Tabaco. El tabaco necesita once veces más nitrógeno y 36 veces más fósforo que una cosecha alimentaria, por lo cual los nutrientes del suelo se agotan muy rápidamente.

Hamburguesas. Cada vez que consumimos una hamburguesa se recortan seis metros cuadrados de selva tropical que se sustituye por una hierba de alto rendimiento que pronto agota el suelo. Millones de hectáreas se pierden en América Central y Brasil por esta causa.

Atún. Entre los bancos de atún se encuentran numerosos delfines que son arrastrados por las redes y muertos, a pesar de encontrarse protegidos. Algunas compañías conserveras no tienen reparo en mezclar las carnes del pez y del mamífero en sus latas.

Pescado. Por el agotamiento de los caladeros, las capturas se reducen cada año más. Según la FAO, el 75 por ciento de las reservas mundiales de pescado se encuentran agotadas o a punto de desaparecer. En 1955, un pescador conseguía unas 8 toneladas de pescado al año; hoy, multiplica por cinco esa producción.

Piña. En Costa de Marfil se han suprimido mies de hectáreas de cultivos de subsistencia para plantar piña que se dedica exclusivamente a la exportación, con lo cual los agricultores marfileños quedan a expensas de las fluctuaciones de los precios en el mercado mundial.

Maíz. Para producir una sola lata de maíz, que contiene 270 calorías, el agricultor gasta 2.790 calorías. Es decir, cada caloría producida cuesta 10 calorías de energía. ¿Dónde ha ido a para la energía disipada? Una gran parte habrá contaminado el entorno, especialmente los suelos y las aguas.

Imagen
Granja de pollos en China

El desastre de la Revolución Verde

Lo que se anunciaba como el gran arma de la humanidad contra el hambre, ha resultado ser un fiasco y un desastre de grandes dimensiones auspiciado por las grandes multinacionales.

Después de la Segunda Guerra Mundial, se desarrollaron variedades enormemente productivas de trigo y arroz en México y Filipinas, hasta el punto que la producción en ciertos países, como la India y Pakistán, se duplicó en una década. ¿Se había acabado con el hambre?

Los políticos se saludaron triunfalistas, e incluso al inventor de esta denominada Revolución Verde, el agrónomo estadounidense Norman Ernest Borlaug, se le concedió el premio Nobel de la Paz en 1970.

Pero las cosas tomaron derroteros más dramáticos de los previstos. Para mantener la potencia productora de estas variedades se requieren grandes cantidades de fertilizantes y pesticidas, de tal manera que sólo los granjeros que podían hacer frente a los altos costes de producción se vieron beneficiados.

Como dice Clive Ponting, “los pequeños agricultores (la mayoría) no tenían suficiente tierra ni capital para que mereciese la pena adoptar los nuevos tipos, y los grandes terratenientes, que sí disponían de los recursos necesarios, consiguieron acumular más riqueza, ampliar sus posesiones, comprar la tierra a los campesinos y convertirlos en jornaleros sin tierra”.

Esta situación de deterioro abarcó prácticamente todo el mundo. Hacia los años ochenta, más de cincuenta países que en los años treinta habían sido autosuficientes se habían convertido en importadores netos de alimentos.

¿Qué futuro nos aguarda?

Los optimistas consideran que de la misma forma que durante este siglo se han encontrado maneras de incrementar la producción, en un futuro también se hallarán. Pero, la solución no se vislumbra a corto plazo, especialmente cuando las condiciones climáticas parecen haber sido alteradas por el efecto invernadero.

Entre las propuestas positivas, un informe de Lester Brown, presidente del prestigioso Instituto Worldwatch contiene algunas recomendaciones para paliar este desaguisado medioambiental, aunque cuestiones políticas y comerciales conseguirán que queden sólo en pretensiones utópicas: Convertir los campos de tabaco en campos de maíz; prohibir toda construcción sobre terrenos agrícolas, aumentar el precio del agua; alentar a los ciudadanos a cultivar su jardín; gravar impositivamente la carne como se hace con las bebidas alcóholicas; y aumentar considerablemente los recursos en investigación agronómica.

Imagen
Plaguicidas para cosechas de alto rendimiento

Los graves problemas y desequilibrios de la alimentación mundial


A los desastres medioambientales como la sequía y la desforestación hay que añadir los gravísimos problemas de contaminación que producen fertilizantes y plaguicidas. Se calcula que más del 90 por ciento de los plaguicidas no afectan a las plagas que persiguen, pero sí contaminan las tierras, el agua y el aire. Los enormes gastos que conlleva este tipo de agricultura no pueden ser soportados por los campesinos minifundistas, sólo por terratenientes y empresas agroindustriales. Según datos que ofrece Jeremy Rifkin, 29 empresas poseen más del 21 por ciento de toda la tierra cultivable de los Estados Unidos.

Estas compañías controlan el 51 por ciento de las verduras frescas, el 85 por ciento de los cítricos, el 97 por ciento de los pollos para asar y el 40 por ciento de los huevos. Como se señalaba en un programa de televisión norteamericana, “cuando un estadounidense se sienta a cenar existen muchas posibilidades de que su pavo proceda de Greyhound, su jamón de ITT, sus verduras de Tenneco; sus patatas de Boeing, y sus frutos secos de Getty”.

Otro problema añadido con el que nadie contaba hace dos décadas es la pérdida de variedad genética; la desaparición inadvertida de bancos de genes de numerosos países, especialmente asiáticos. En la India, por ejemplo, existían 30.000 variedades de arroz en 1980. De todas ellas, se calcula que actualmente se cultivan unas 12. Con esta uniformidad, las cosechas se encuentran a merced de cualquier plaga. Las del maíz, por ejemplo.

Pagar por los propios genes

Allá por 1970, todo el supermaíz plantado en Estados Unidos estuvo afectado por una epidemia de hongos con pérdidas de 2.000 millones de dólares. Los ingenieros agrícolas descubrieron que en territorio maya se encontraba una variedad arcaica con resistencia al hongo. Pronto, los científicos hallaron el gen que proporcionaba la resistencia a la planta y lo incluyeron en sus propias variedades. De esta manera, los mexicanos están pagando mucho más, en forma de royalties, por consumir un maíz que ha sido tratado con el gen de la planta que se encontró en sus tierras. Un negocio redondo.

La mentalidad que se trasluce tras esta economía hiperproductiva no dista mucho de aquella que impulsó el colonialismo europeo hace 500 años y que representó el pistoletazo de salida para la destrucción masiva del planeta, a pesar de que el ser humano lleva más de 10.000 años empeñado en labores agrícolas.

Historia de un despropósito

Los historiadores consideran el cultivo de la caña de azúcar como el primer producto agrícola que contribuyó a cambiar decisivamente la faz del mundo. Había sido importada por los cruzados y su precio era tan elevado en el mercado que pronto se buscaron climas apropiados para su producción masiva. Madeira y las Canarias fueron las primeras afectadas. Sus bosques fueron arrasados por los colonizadores que plantaron caña de azúcar y utilizaron como esclavos a los guanches, quienes desaparecieron prácticamente del mapa. El Caribe sustituyó a las islas atlánticas en producción azucarera, pero ello supuso además del ecológico, un desastre humano, ya que para trabajar la caña se trasladaron decenas de millones de esclavos.

Junto con la caña de azúcar, Colón llevó a América en septiembre de 1493, plantas y animales que pronto se desarrollarían en las nuevas tierras: cerdos, caballos, vacas o trigo. 50 años después de esta fecha, ya se encontraban manadas de vacas en zonas tan alejadas de Haití como Florida, México y Perú. Hacia 1700 existían 50 millones de vacas salvajes en el continente. En Australia sucedió lo mismo y pronto se encontraron con millones de vacas,ovejas, caballos, camellos y cerdos salvajes.

Junto a los animales se trasladaron desde Europa hierbas que sustituyeron a las autóctonas, incapaces de soportar un ritmo intensivo de apacentamiento. Un ejemplo lo ofrecía la zona de Buenos Aires en 1877, donde crecían 153 variedades de plantas europeas que 50 años más tarde habían colonizado a las autóctonas hasta reducir su presencia a la cuarta parte. En Nueva Zelanda, una vez que se introdujo la abeja europea proliferaron nuevas plantas hasta el punto que de las actuales, la mitad de las hierbas proceden de Europa.

La colonización europea fue un desastre para la variedad agrícola

Con los colonizadores europeos, la economía agrícola de muchos países sufrió una profunda remodelación que alcanza hasta nuestros días. Por ejemplo, los holandeses transformaron Indonesia y las islas exteriores para la producción de té, azúcar, café, tabaco y caucho para la exportación. En 1945, con la independencia de Indonesia, la economía del país dependía de fluctuaciones de estos productos en el mercado internacional.

Como dice el historiador Clive Ponting, “países que habían sido en gran medida autosuficientes en lo que se refiere a alimentos y que producían cultivos principalmente para los mercados locales pasaron a formar parte de una economía mundial dominada por Europa, sus colonias blancas y Estados Unidos”.

En la actualidad, se mantiene la misma tónica: mientras siguen aumentando las cosechas para la exportación en los países del Tercer Mundo, la producción alimentaria para el consumo interno se encuentra estancada, por lo que estos países se ven en la obligación de adquirir alimentos en el mercado internacional a precios elevados con lo que se endeudan y su déficit sigue creciendo. El colonialismo para estos países se llama hoy mercado libre.

Un caso paradigmático es el de Costa de Marfil, que antes de conseguir la independencia producía 75.000 toneladas de cacao y 147.000 de café; pero a mediados de los setenta estas cantidades habían aumentado a 228.000 y 305.000 toneladas respectivamente, “dando como resultado –dice Ponting– una economía todavía más dependiente de estos cultivos”.

Cómo se transforma el mundo cuando comes


Menuda tripada. Un par de huevos fritos con bacon y un café con leche y azúcar en el que flotan unos cereales, para desayunar. Para comer, arroz hindú con especias y un buen filete de ternera a la pimienta con plátanos de postre. Por supuesto, no faltó el café y el cigarro de sobremesa. Merendé una hamburguesa con patatas fritas en un macdonals y por la noche un filetito de atún a la plancha con verduras y un yogur a la vainilla.¡Qué satisfacción!

Pero quedar satisfechos con la comida significa olvidar que con cada uno de estos alimentos contribuimos a perpetrar un desastre ecológico, cuya magnitud sólo podrá ser evaluada por las generaciones que nos sigan. Por ejemplo, la carne se ha convertido en la alimentación básica de Occidente, aunque como dice Jeremy Rifkins, un ecologista en primera línea de fuego, “el hemisferio sur del planeta se muere de hambre porque una parte del hemisferio norte se alimenta de carne sin tener vergüenza”.

Cada vez más depredadores

Cada vez somos más carnívoros, más depredadores. Apenas nos percatamos que con la energía que nos cuesta producir la carne podríamos alimentar a todo el planeta sin exigirle demasiado.

Cifras cantan. Según el Atlas Gaia de la gestión del planeta, para producir una caloría de ternera alimentada con grano, la hemos tenido que proporcionar 10 calorías de grano. Un 40 por ciento de la producción mundial de cereales se dedica a alimentar el ganado. En los países ricos, esta proporción alcanza las tres cuartas partes, aunque en Estados Unidos se llega al 90 por ciento de los cereales cultivados. En este país se sacrifican cada día 100.000 vacas (En España 5.000 al día).

Todo este ganado se come el 24 por ciento de las tierras cultivadas del planeta, pero su contaminación no acaba aquí, ya que producen sesenta millones de toneladas de metano a través de sus pedos que contribuyen a potenciar el efecto invernadero.

Recordemos que para fabricar un kilo de proteínas animales se requieren siete de proteínas vegetales, por lo que llegará un momento en que no se produzcan los suficientes cereales. En la actualidad, los stocks alimenticios de cereales del mundo han disminuido a sólo 50 días, su más bajo nivel histórico. A ello hay que añadir que cada año nacen unos 100 millones de individuos a los que hay que alimentar, lo cual significa que la producción debe crecer 28 millones de toneladas de cereales al año. O sea 78.000 por día.

El reparto desequilibrado

Resulta paradójico que todo ese caudal de carne se encuentre tan mal repartido. En casi todos los países de Centroamérica la producción de carne de ternera se ha duplicado, pero el consumo doméstico por habitante se ha reducido a una quinta parte.

Las exportaciones de carne de vaca de Costa Rica se han cuadruplicado, pero el país ha sufrido un descenso del 40 por ciento en el consumo per cápita, a pesar de que ha sacrificado la mitad de sus bosques a las hamburguesas. En palabras del historiador Clive Ponting: “Un gato americano come ya más carne de ternera que cualquier habitante de Costa Rica”.

Existen suficientes alimentos para todos, pero mal distribuidos. Los habitantes de los países industrializados consumen la mitad de los alimentos mundiales, aunque sólo constituyen una cuarta parte de la población del planeta. Un reparto equitativo de las cosechas mundiales podría haber sustentado a seis mil millones de personas, toda la población que vive actualmente en el planeta, pero existen enormes desigualdades tanto en la producción como en el consumo.

Más producción, peor alimentación

Mientras en Europa se produce un 30 por ciento más de alimentos por cada uno de sus habitantes que a mediados de los años 60, en África se genera un 27 por ciento menos de alimentos por habitante que en esa década. Dos mil millones de personas en todo el mundo no disponen del alimento necesario. Cuarenta millones de personas mueren cada año de hambre y de enfermedades relacionadas con él, cantidad equivalente al pasaje de 300 aviones Jumbo que se estrellasen cada día, pasaje que, en un 50 por ciento, serían niños.

Según la FAO un habitante de los países desarrollados consume a diario un 50 por ciento más de calorías, el 100 por cien más de proteínas y el 110 por ciento más de grasas que un habitante de los países en vías de desarrollo.

Las prácticas agrícolas han erosionado el suelo a causa de la desforestación salvaje y sistemática; también se ha degradado la tierra y, en muchas zonas, el desierto ha avanzado. Todo este daño medioambiental tiene como consecuencia que se destruya más tierra cultivable de la que se pone en producción. Se calcula que cada año se pierden 15.000 millones de toneladas de capa superficial de suelo sólo entre Estados Unidos, la ex-Unión Soviética, China e India, lo cual representa la mitad de la superficie mundial de cultivos. El problema en muchos países es gravísimo. A Haití no le queda capa de suelo de calidad y Turquía tiene las tres cuartas partes de la tierra afectada.

La FAO señala que cada año, 6 millones de hectáreas de tierras de cultivo se convierten en desierto, una superficie equivalente a la de Suiza u Holanda.

Japón, Taiwan y Corea del Sur han perdido el 40 por ciento de sus campos de cereales, pero es un proceso que afecta a todo el continente asiático. Unas cifras: la isla indonesia de Java pierde cada año 20.000 hectáreas de arrozales, un terreno capaz de alimentar a 360.000 personas. Pero cada año, Java gana 3 millones de habitantes. ¿Cómo se les dará de comer?

Desastres ecológicos

Parece como si las lecciones de la historia no hubiesen servido para nada. Uno de los grandes desastres ecológicos, el llamado “dustbowl” tuvo lugar en las Grandes Llanuras de Estados Unidos, donde pastaban millones de bisontes hasta la colonización blanca. Desde 1889 hasta 1930 se estuvo cultivando trigo resistente a la sequía en varios millones de hectáreas de Kansas, Colorado, Oklahoma, Nebraska, Texas y Nuevo México. Pero después, la sequía y los fuertes vientos levantaron el suelo, suelto y seco, que hasta entonces protegía un manto de alta hierba.

La gran tormenta de mayo de 1934 levantó 350 millones de toneladas de suelo superficial que se distribuyó por todos los estados orientales. Se calcula que sólo en Chicago cayeron 12 millones de toneladas. Cada año se perdían 850 millones de toneladas de suelo, lo que obligó a abandonar las granjas de la zona a tres millones y medio de personas en 1938. Durante las décadas siguientes se repitió el fenómeno y hacia los años setenta se había perdido nada menos que un tercio del suelo superficial de los Estados Unidos.

Los hechos se encargaron de convertir en estúpida la afirmación que hizo en 1909 la Oficina del Suelo estadounidense: “La tierra es el único recurso que no puede agotarse; que no se puede terminar”. La estulticia hiperproductiva de lo soviéticos repetiría la fórmula en su Plan Quinquenal de 1929: “Nuestra estepa sólo será verdaderamente nuestra cuando lleguemos con columnas de tractores y arados a romper el milenario suelo virgen”.

Resultado: Ucrania se vio sometida a continuas tormentas de polvo y a una terrible erosión de sus tierras de cultivo; y en Kazajstán, la fuerte erosión provocaba el abandono anual de más de 400.000 hectáreas de suelo en los años sesenta. Un proceso semejante se ha repetido por todas las grandes tierras agrícolas del planeta: Australia, China, India o Bangladesh.

La tragedia del Mar de Aral

Nada como un ejemplo elocuente y trágico para comprender el proceso de degradación medioambiental que implica la producción de alimentos. Se trata del mar de Aral, un mar interior al sur de la república de Kazajstán, al que vertían sus aguas dos grandes ríos. Los planes de producción agrícola soviética de los años sesenta contemplaron la irrigación de siete millones de hectáreas cultivadas de algodón y arroz.

Se alcanzó tal volumen de aguas desviadas que en pocos años se pudo apreciar cómo se reducía. A finales de los años ochenta, dos terceras partes del mar se habían secado, lo cual ha traído cambios climáticos consigo, enfermedades, abandono de aldeas, desaparición de las 38 especies de peces que habitaban esta gran masa de agua e incluso un terrible brote de peste que puso la zona en cuarentena en 1990.

La contaminación de las aguas es un grave problema que también contribuye a acelerar los ciclos de degradación medioambiental. Las capas freáticas de cualquier país del mundo han bajado ostensiblemente, en algunos casos han desaparecido como en Texas, norte de la China o el Punjab.

1990 fue un punto de inflexión en la tendencia  producir alimentos. A partir de ese año se pusieron menos tierras en cultivo y la producción agrícola disminuyó. Por ejemplo, los países que formaban la antigua Unión Soviética poseían 123 millones de hectáreas en 1977 consagradas al cultivo de cereales. En 1994 esa cifra se había reducido a 94 millones a causa de la pérdida de suelo cultivable.

Imagen
Vistas de satélite de 1989 y 2008 para comparar la pérdida de masa acuática en el Mar de Aral en Kazajistán y Uzbekistán

domingo, 22 de julio de 2012

Campaña de excavaciones 2012 en los yacimientos de la Sierra de Atapuerca

El pasado domingo 17 de junio comenzaron las excavaciones 2012 en los yacimientos de la Sierra de Atapuerca dirigidas por Juan Luis Arsuaga, José María Bermúdez de Castro y Eudald Carbonell. Tras casi 40 días de excavaciones, les detallamos en esta nota un balance de los hallazgos más destacados en cada uno de los yacimientos en los que el Equipo de Investigación de Atapuerca bajo la codirección de los tres codirectores, Juan Luis Arsuaga, José María Bermúdez de Castro y Eudald Carbonell, han trabajado en la campaña de excavaciones 2012.

Creo que no está de más realizar en Gonosiana un recorrido por los descubrimientos más espectaculares y recientes gracias al informe elaborado por el Equipo de Investigación de Atapuerca.
Trinchera del Ferrocarril. Sima del Elefante

Este nivel, datado en 1,2 millones de años, es donde en campañas anteriores se recuperaron restos de homínidos asociados a industria lítica y fauna con marcas de haber sido consumidos por estos homínidos. Hasta el momento, en la presente campaña hemos recuperado restos de mamíferos como castor, gamo o caballo, así como restos de aves de diferente talla.
Gran Dolina. Nivel Td10

Desde el día 17 de junio, un equipo de 25 personas ha estado excavando en la parte superior del yacimiento de Gran Dolina, en una superficie de 80 m2. El gran paquete de sedimentos contenido en el nivel TD10 se caracteriza por presentar las mayores concentraciones de restos arqueológicos documentados hasta la actualidad en los yacimientos pleistocenos de la Sierra de Atapuerca. Estos restos se acumularon en la entrada a la cueva de Gran Dolina a lo largo de los períodos en que ésta fue usada por los homínidos como enclave referencial dentro del entorno de la sierra.

Concretamente, se ha trabajado en la base del nivel TD10.2, de unos 370.000 años de antigüedad. Este nivel se empezó a excavar en 2004 y desde entonces ha proporcionado un riquísimo registro fósil, con más de 60.000 restos faunísticos y 12.000 artefactos de piedra (incluyendo las herramientas en sí y los restos de su fabricación).

Un hecho a destacar de la campaña actual es la confirmación de que, justo en la base del mencionado nivel de los bisontes, empiezan a aparecer algunos bifaces, que son los instrumentos característicos del período Achelense. En futuras campañas se entrará de lleno en los niveles achelenses. Ello permitirá definir el uso que se dio a cada uno de estos espacios y, en definitiva, obtener más información sobre las formas de vida de los grupos de Homo heidelbergensis que tan bien documentados a nivel anatómico se tiene en la Sima de los Huesos.
Sector inferior

Los trabajos iniciados hace 10 años en el retranqueo de la sección de Gran Dolina han llegado ya a los niveles basales. Esto significa que todos los niveles fértiles desde el punto de vista arqueo-paleontológico han sido ya sondeados y se tienen datos sobre cual es la dinámica general en cada uno de ellos. Uno de estos datos, quizás el más importante, es que se ha registrado presencia humana continua, en forma de industria lítica, en todo el tramo del Pleistoceno inferior de este yacimiento, es decir, desde hace 1 millón de años, hasta hace 800.000.

Aparte de una espectacular colección de fósiles de animales (bisontes Eucladoceros, Megaloceros, caballos, etc.) se han localizado algunas herramientas de cuarcita, hasta ahora las más antiguas de este yacimiento.

Durante la presente campaña esta colección de artefactos líticos no ha sido aumentada. Sin embargo, se han localizado los restos de un oso muy particular, Ursus dolinensis, una especie definida a partir de los restos hallados en este nivel.

Se trata de un oso cuya posición filogenético parece estar muy cercana al ancestro común entre la línea de los osos de las cavernas (Ursus deningeri y Ursus spelaeus) y la línea de los osos pardos actuales (Ursus arctos). Un cráneo entero de esta animal recuperado en el nivel TD4 ayudará, sin duda, a clarificar la posición de esta especie en el árbol evolutivo de los osos. Su comparación con otros yacimientos euroasiáticos servirá para ver la extensión territorial por Europa de U. dolinensis, es decir, si fue una especie endémica de la Sierra y, por tanto, de la Península Ibérica o si estuvo distribuida por toda Eurasia.
Galería

Galería es uno de los yacimientos que se localiza en la Trinchera del Ferrocarril, a escasos 50 m del yacimiento de Gran Dolina. Enmarcado en el Pleistoceno Medio, abarca un rango cronológico extenso entre 500.000 y 250.000 años de antigüedad. Durante la campaña de 2012 se ha intervenido en el nivel TG11, concretamente se han excavado los subniveles arqueológicos GSU-1 y GSU-2 correspondientes a las últimas ocupaciones de Homo heidelbergensis. La antigüedad de estas ocupaciones estaría entorno a los 250.000 años. Se han recuperado restos faunísticos entre los que destacan costillas, vértebras, maxilares y mandíbulas, pertenecientes a caballos y ciervos. También se han recuperado algunas herramientas típicas achelenses elaboradas en sílex.
Galería de las estatuas

Se encuentra ubicado al final de la denominada Galería de las Estatuas, a unos 350 metros de la actual entrada de la Cueva Mayor. Aquí se está interviniendo en sedimentos del Pleistoceno Superior que registran ocupaciones de neandertales, siendo el único yacimiento de esta época conocido en las cuevas de la Sierra de Atapuerca.

En la campaña de este año se ha profundizado en las dos áreas de excavación y se han recuperado restos de fauna y piezas de industria musteriense, la propia de los neandertales. La cronología de los niveles superiores se sitúa en torno a los 45.000-50.000 años, según recientes dataciones de radiocarbono.

La Sima de los Huesos

Es una pequeña cavidad al pie de una sima vertical de unos catorce metros de caída, enclavada a casi un kilómetro de la actual entrada de Cueva Mayor. En este yacimiento se encontraron los primeros fósiles humanos de la Sierra de Atapuerca en 1976. Las excavaciones sistemáticas en la Sima de los Huesos comenzaron en 1984 y desde entonces se han encontrado aquí más de 6.500 fósiles humanos de la especie Homo heidelbergensis, de hace entre 300.000 y 500.000 años. Se trata de la mayor acumulación de fósiles humanos de la historia, hasta el punto que se han hallado allí más fósiles humanos que en el resto de yacimientos del planeta para cualquier época.

En esta campaña se cumple el veinte aniversario del hallazgo, en 1992, de tres cráneos humanos muy completos denominados, respectivamente, como Cráneo 4 (“Agamenón”), Cráneo 5 (“Miguelón”) y Cráneo 6 (“Ruy”). Este acontecimiento hizo célebre internacionalmente el nombre de Atapuerca. Desde entonces se han hallado numerosos fragmentos craneales aislados que han permitido a los científicos reconstruir otros cráneos humanos en diferente estado de conservación.

Cueva del Mirador

La cueva del Mirador se sitúa en el extremo meridional de la Sierra de Atapuerca, dominando el valle del río Arlanzón. Las excavaciones que se llevan realizando desde 1999 han puesto al descubierto una estratigrafía de 20 metros con restos de ocupaciones que van del Magdaleniense final, hace unos 12.500 años, hasta finales de la edad del Bronce, hace unos 3.000 años.

Durante la campaña de 2012 se ha continuado con la excavación del sepulcro colectivo localizado en el extremo NE de la cavidad, datado en el calcolítico, hace unos 4.300 años, donde se llevaban ya exhumados los restos de un mínimo de 12 individuos. Los trabajos realizados esta campaña han puesto al descubierto los restos de al menos 8 nuevos individuos. Estos aparecen amontonados, dispuestos de forma aleatoria, algunos dispersos y otros en conexión anatómica, lo que indica un uso prolongado del sepulcro y la práctica de desplazar los restos óseos hacia el perímetro de la cámara sepulcral para depositar en la parte central a los nuevos cadáveres, al estilo de las cámaras dolménicas.

En algunas ocasiones los cadáveres se inhumaban con algunas ofrendas: pequeños boles hemisféricos bruñidos, conchas de almeja de río (alguna colocada en la mano del difunto) y candiles de ciervo fracturados por flexión. La recogida sistemática de muestras destinadas a la realización de estudios de residuos permitirá documentar en breve la existencia o no de otras ofrendas, tales como alimentos o objetos elaborados con materiales perecederos, que no se han conservado.

Asimismo, los estudios de ADN en curso permitirán conocer las relaciones de parentesco entre los distintos individuos depositados en la cavidad, aportando información sobre si se trata del sepulcro de un grupo familiar o del de una pequeña comunidad.

La excavación de 2012 ha permitido también confirmar que los cadáveres eran depositados sobre el suelo, sin sepultar, y que  ninguno de ellos muestra evidencias de haber sido perturbado por la acción de los carnívoros. Esta última evidencia permite deducir que la boca del sepulcro estaba cerrada, muy probablemente por una estructura de madera. De otra forma, sería difícil explicar el porqué ninguno de los huesos presentara mordeduras de carnívoro, que habrían accedido a los cadáveres expuestos atraídos por el olor.

Asentamiento al aire libre. Fuente Mudarra

Durante esta campaña se ha trabajado en un nuevo sitio al aire libre denominado Fuente Mudarra en el que se conocían evidencias neandertales. Se ha abierto un sondeo de 12 m2 en el que ha trabajado un equipo de 9 personas. Se han excavado varios niveles arqueológicos de 50.000 años de antigüedad en el que se han recuperado piezas de sílex y de cuarcita de factura neandertal. Este asentamiento, a orillas del río Pico, es el tercero de esta cronología en el que se interviene y ha aportado y seguirá aportando el año que viene valiosa información acerca del modo de vida de estos grupos de cazadores-recolectores que vivieron durante decenas de miles de años en este paraje.

Imágenes:
1. Cráneo de oso  (Ursus dolinensis) del nivel 4 de Gran Dolina, in situ.
2. Bifaz de sílex del nivel 10 de Gran Dolina
3. Bifaz de cuarcita del nivel 10 de Gran Dolina
4. Bifaz de sílex de Galería
5. Diente de caballo del nivel 9 de la Sima del Elefante
6. Cráneo de oso (Ursus dolinensis) del nivel 4 de Gran Dolina
7. Fósiles humanos de la Sima de los Huesos perteneciente a la especie Homo heidelbergensis.

Créditos fotografías: Jordi Mestre / EIA

viernes, 20 de julio de 2012

Grandes enigmas de la existencia


Gonosiana recoge sobre todo mis inquietudes sobre la consistencia de la realidad. Sobre todo los "tenues y eternos intersticios de sinrazón" de su arquitectura, parafraseando a Borges.

Desde el más ínfimo nivel de materia del que tenemos conocimiento, hasta la que consideramos más alto nivel de pensamiento, la inteligencia humana, los científicos tratan de encontrar respuesta para todos los enigmas que tachonan el camino.

Presento en Gonosiana siete preguntas básicas que, que además de producirme una desasosegante inquietud, pueden dar pistas sobre el sentido de la vida y algunas de las respuestas que a lo largo de los siglos ha tratado de dar el ser humano.

Todo el Universo en su conjunto es un enorme enigma si partimos de la base de que sólo percibimos la realidad a través de nuestros sentidos, pero esos mismos sentidos, gracias a los experimentos científicos que se realizan en los laboratorios, sabemos que nos engañan y que nos ofrecen una visión sesgada del mundo. Lo observado está condicionado al observador. He aquí donde radica el gran hallazgo del Siglo XX (¿cuál será el del XXI?).

¿Cuál es realmente la realidad? ¿Existe la realidad tal como la concebimos o se trata de tan sólo de un convencionalismo mental, sensorial e incluso social?

A partir de esta pregunta básica, debemos plantearnos sobre lo que sustenta nuestra idea de realidad, esto es la materia. Pero por más que los científicos buscan el último peldaño, el ladrillo primordial de todo cuanto existe más sorprendidos se quedan: la materia es una vibración, tan sólo una energía en movimiento.

Así que la segunda pregunta que me provoca cavilaciones es ¿de qué está hecha la materia? ¿Hasta dónde han llegado los científicos (reciente descubrimiento del bosón de Higgs) en sus investigaciones para encontrar el último residuo de materia? ¿Qué falta por descubrir? ¿Por qué se organiza la materia como se organiza (Sinergética, la doctrina de la acción en conjunto)?

Planteado este enigma, el siguiente eslabón en mi curiosidad, una sed siempre insatisfecha, es sobre el origen de la vida, cómo se desarrolló una conciencia a partir de unos átomos de materia supuestamente inanimada.

Pero, los científicos se interrogan, como un gran misterio, sobre el origen de lo que denominamos vida orgánica. ¿Cómo se formó la vida? ¿Vino del espacio (¿Panespermia o sopa primordial?)?

En sí, parece que es un misterio que tal vez nunca se resuelva a no ser que algún día nos topemos con otras criaturas cósmicas que conozcan ese secreto, o bien podamos conocer un planeta donde se den condiciones similares a las terrestres en sus primeros milenios de formación.

¿Tiene algún sentido la existencia?

Este enigma encuentra su continuidad y colofón en una serie de interrogantes que además de en mi curiosidad desatan vivas polémicas entre los científicos: ¿Cómo se organizan las moléculas? El enigma de las células: ¿qué hace que las células se dividan? ¿Cómo forma la célula un organismo?

Y, ya pasamos a una de las controversias que lindan el ámbito de lo religioso: ¿Qué es un gen? ¿Cómo saben los genes cuándo conectarse y desconectarse durante su desarrollo? ¿Somos los seres vivos algo más que robots en manos de los genes?

Si nos detenemos en el ámbito de lo humano, tenemos que preguntarnos por los eslabones perdidos y por el origen de la inteligencia: ¿Cómo nació la consciencia? ¿Cuáles fueron nuestros antepasados en la creación? ¿Darwinismo o lamarckismo? ¿Quiénes serán nuestros sucesores evolutivos (inteligencia artificial o memes)?

¿Cómo nació la consciencia?


Si la génesis y la forma, incluso la evolución, de los seres vivos despierta controversias y pasiones, es en el terreno de la inteligencia y la consciencia (conciencia: conocimiento que se tiene de algo; consciencia: conocimiento que se tiene de sí mismo) donde las opiniones encontradas entran en el terreno de las creencias y el fanatismo.

¿Cómo puede describirse científicamente un sueño?

Aquí no existen las teorías, sino los sentimientos, porque ¿cómo puede describirse científicamente un sueño? Tal vez un psicólogo se acerque más a la realidad del fenómeno que un neuroquímico, quien por mucho que lo disecciones en electroencefalogramas y proteínas, nunca podrá describir el tremendo potencial creativo que contienen las imágenes oníricas.

Las funciones mentales no se pueden describir mecánicamente, pero podemos aproximarnos a ellas desde distintas perspectivas. En primer lugar, tenemos que considerar el porqué de que haya aparecido la inteligencia en el hombre. Podemos partir del “soplo divino” como hipótesis de trabajo, pero esa explicación invalidaría todos los siglos de conocimiento humano, ya que todos los fenómenos podrían describirse con el mismo argumento, como en la Edad Media.

Lo psíquico nació de lo prepsíquico

Según las tesis evolucionistas, lo psíquico nació de lo prepsíquico. Como dice el paleontólogo alemán Heinrich K. Erben, “mientras la organización se complica, a medida que se asciende en la escala animal, también la conducta y las capacidades psíquicas se hacen cada vez más complejas”. Ello sería beneficioso para la adaptación al medio, para mejorar en las condiciones de la selección natural.

Esto es, que la inteligencia es, evolutivamente correcta y se ha manifestado en la naturaleza hasta llegar al hombre de la siguiente forma: percepción sensorial, que sería el registro de las sensaciones importantes para la supervivencia del organismo; el instinto que sería un mecanismo que se dispara por resortes externos o internos y que provocan un comportamiento determinado para la conservación de la vida y de la especie; la consciencia, que a diferencia del instinto, provoca un programa de comportamiento al que se le pueden incorporar experiencias individuales; y la razón, una cualidad ya específica sólo del ser humano que provoca manifestaciones como la abstracción, la actuación sistemática, el conocimiento causal y las relaciones lógicas con lo que es capaz de crear todo aquello a lo que damos el nombre genérico de “cultura”.

Según el estudio de la evolución animal el hombre podría muy bien haber seguido todo este proceso, ya que de hecho fisiológicamente ha ido acumulando un cerebro sobre otro (reptil, mamífero, primate, humano) hasta llegar al que poseemos actualmente que no se ha modificado sustancialmente en varios millones de años.

¿Qué le seguirá? Algunos científicos visionarios como Marvin Minsky o Hans Moravec ven el los ordenadores a nuestros descendientes evolutivos, pero esa es otra historia.

Genes y memes

Richard Dawkins añade fuego a la polémica y no habla de evolución cerebral, sino genética, ya que opina que la unidad de información básica de la vida, el gen, está comenzando a ser sustituida por un nuevo tipo de unidades inmortales que se transmiten de individuo a individuo llamados memes.

Esta palabra procede del griego mimeme (imitación), y si estudiamos con detenimiento su hipótesis no parece tan descabellada. Los memes más antiguos serían los relacionados con la religión o la mitología. La idea de Dios, a pesar de las mutaciones sufridas, es un buen ejemplo de meme.

Acerca del funcionamiento del cerebro y su finalidad también se han establecido muchísimas teorías, pero la que nos llama más la atención es la del pansiquismo de Theilard de Chardin, según la cual la totalidad del universo tiene una especie de consciencia.

Al respecto, escribe el físico Freeman Dyson: “Creo que nuestra consciencia no es un epifenómeno pasivo llevado a cabo por los procesos químicos de nuestro cerebro, sino un agente activo que fuerza a los complejos moleculares a que elijan un estado cuántico u otro. En otras palabras, la mente es inherente a cada uno de los electrones”. Todo está conectado con todo, y volvemos como en un gigantesco bucle a nuestro primer enigma, ¿cómo se crea la realidad?

Imagen:
El Pensador, de Auguste Rodin

¿Somos los seres vivos algo más que robots en manos de los genes?


Todo el código genético de un organismo recibe el nombre de genoma. Todo el genoma humano corresponde aproximadamente a cien mil genes. Ese es el mensaje que tenemos que transportar los humanos hasta el fin de los tiempos. Ese parece ser el sentido de la vida: una reproducción sin paliativos para llevar un mensaje al futuro.

Los genes controlan la vida

Algunos científicos como el darwinista Richard Dawkins asegura que los genes son los que controlan realmente la vida en el mundo. Para Dawkins, los humanos (como el resto de los animales) sólo somos robots lerdos y gigantescos programados a ciegas con el único fin de perpetuar a los genes. Ellos son los que han podido sobrevivir a 4.000 millones de años de inclemencias planetarias y cataclismos cósmicos, creando organismos cada vez más sofisticados en los que resguardarse.

Según este profesor de etología de la Universidad de Oxford, el gen no tiene ninguna cualidad divina, sino que fue tan sólo una afortunada y accidental combinación de elementos básicos que se encontraron con la extraordinaria propiedad de crear copias de sí mismo. Ahora es la unidad de reproducción que sobrevive a costa de seres sucesivos, cada vez mejores: peces en el agua, aves en el aire, incluso bacterias que no necesitan oxígeno en el interior del planeta.

El gen egoísta

El gen nos domina y nos convierte en seres egoístas, y sólo en ocasiones en altruistas (pero en este caso se trata de un comportamiento que sólo sirve para alcanzar mejor un objetivo egoísta). Su libro El gen egoísta sorprende especialmente por lo fundamentado de su tesis.

Afortunadamente, no todos los científicos están de acuerdo y comprenden el gen como el organismo poseedor del secreto de la existencia, el santo Grial de la bioquímica. Y piensan que en él se encuentra el misterio de cómo consiguen las células saber que tienen que ser de brazo y no del hígado, siendo su contenido genético exactamente el mismo.

El misterio de las formas biológicas

Como dice Paul Davies, lo más intrigante del enigma de las formas biológicas “es el aparentemente milagroso desarrollo de un embrión a partir de una única molécula fertilizada, constituyendo una entidad más o menos independiente y de una complejidad fantástica, formada por muchos tipos de células especializadas que llegan a originar músculos, huesos, nervios, etc. Se trata de un proceso supervisado de alguna forma con un grado pasmoso de detalle y precisión, tanto en el tiempo como en el espacio”.

¿Por qué a lo largo de los años tenemos el mismo rostro si nuestras células se renuevan sin cesar? Eso se preguntó también el biólogo británico Rupert Sheldrake, una de las figuras más heterodoxas de la moderna ciencia. Y él mismo trató de contestarse con la hipótesis de la causación formativa y los campos morfogénicos.

Los campos morfogénicos

Para Sheldrake, el plan global, la información formativa no se almacena en el ADN, sino en unos campos de naturaleza física completamente nuevos causantes de la morfología de todos los seres, vivos e inertes. Ese campo almacenaría la información sobre la forma definitiva del embrión guiando su desarrollo a medida que crece. Una vez que existe esa forma en la naturaleza, establece su propio campo morfogénico estimulando la aparición de esa misma forma en cualquier otro sitio.

El más conocido es el ejemplo de los cristales. Es un hecho bastante conocido entre los científicos que, cuando se ha sintetizado un nuevo producto, se puede tardar años en conseguir su cristalización. Por fin, un día, un investigador logra el cristal, pero curiosamente, a partir de entonces, se produce una reacción en cadena y dejan de existir dificultades para hacer cristalizar el producto.

Imagen:
Rupert Sheldrake

El enigma de la división celular


¿Tenemos que pensar como apunta el Principio Antrópico que todo el universo ha sido condicionado para que surja el ser humano en este planeta, o la vida es un proceso común en el universo? Como se ve, la cuestión no es baladí. Si la Tierra es un planeta corriente y la vi da un proceso habitual formado con elementos que se encuentran abundantemente en todo el Universo entonces es lógico pensar que muchísimos otros lugares del cosmos están habitados por seres vivos, y es posible que inteligentes.

No cabe duda que la búsqueda de vida extraterrestre no sólo es un desafío para la ciencia, sino que sus resultados validarían una u otra hipótesis sobre el origen de nuestra propia existencia como seres vivos.

Virus

La forma más simple y minúscula de materia viva es el virus que se forma tan sólo con un núcleo de ADN rodeado por un revestimiento de proteínas. Pero a tenor de su reproducción y de su capacidad de mutación, la simpleza se convierte en una tortura para los investigadores que se sienten incapaces de contener su desarrollo y expansión.

Así que la vida en su más sencilla expresión continúa siendo un insondable misterio. Dado que para reproducirse requieren un organismo más complejo como es la célula, no han podido ser los primeros seres que aparecieron sobre el planeta, a no ser que se hayan convertido en parásitos y hayan perdido su habilidad para reproducirse.

Aún así, se ha expuesto a menudo que los virus, a pesar de la mortandad que provocan, son indispensables para la evolución humana, puesto que hacen trabajar los mecanismos de defensa del organismo para que se adapte mejor al medio.

La célula

El más fascinante de los elementos que componen al ser vivo es la célula. En este mismo momento las células de nuestro cuerpo se están dividiendo a un ritmo de millones por segundo. Por supuesto que no todas, algunos de los sistemas poseen las mismas células que hace algunos años, como las del sistema nervioso que dejaron de reproducirse al alcanzar la madurez. Pero también es un misterio el cómo como se dividen. Si se lograra descubrir con precisión ese mecanismo nos encontraríamos con que se ha encontrado una manera de detener el envejecimiento.

El secreto debe estar en las órdenes codificadas que llevan las células en su interior: las moléculas de ADN enrolladas en una doble hélice que forman parte de unos bastoncillos llamados cromosomas, distribuidos a pares en la célula. En nuestros 46 cromosomas por célula (23 pares) se encuentra toda la información acerca de cómo somos físicamente, cómo lucharemos contra las enfermedades y cuando dejarán de reproducirse las células.

Y todos los seres vivos, aunque poseamos distintas instrucciones de montaje, tienen un código escrito con cuatro letras, las llamadas bases: adenina (A), timina (T), guanina (G) y citosina (C). Ellas son las que llenan miles de páginas químicas de instrucciones en un gen (la unidad básica de la herencia que corresponde a un trocito de molécula de ADN).

Imagen
Micrografía de una célula mitótica pulmonar de tritón

¿Tiene algún sentido la existencia?


A la condición de los seres vivos, por muy minúsculos que sean, de poseer una finalidad se le denomina teleología o teleonomía, del griego telos, que implica la idea perfecta y completa anticipada a la existencia del organismo. Si bien casi podemos establecer que el programa existe, nada sabemos sobre el programador: una deidad, un “punto omega”, el sueño de un ser humano, o un gigantesco cerebro que ocupa todo el universo. Todo es un profundo arcano.

Enigmáticamente se combinan las partículas, que misteriosamente sólo tienen carta de existencia cuando se las observa y que insólitamente se combinan entre ellas para producir átomos y moléculas complejas que, de modo aún misterioso, se organizan en seres vivos, los cuales, por motivos aún desconocidos, son cada vez más perfeccionados (si partimos de la premisa de que el hombre es un ser más evolucionado que un estafilococo, lo cual no dejará de dudar mucha gente).

La vida es un puro enigma

Especialmente éste: ¿Cómo pudo engendrar la materia inerte lo que conocemos como materia viva? No se sabe, pero se avanzan hipótesis. Como la de los cosmólogos Fred Hoyle y Chandra Wickramasinghe, quienes consideran que microorganismos llegados del espacio exterior dieron origen a la vida en la Tierra, pues de ninguna otra forma se entiende que hasta el más sencillo de los sistemas biológicos sea increíblemente complejo ya que es capaz de replicarse, de reproducirse. Para ello se basa en una molécula de ADN que contiene un programa de réplica para conseguir cada vez mejores adaptaciones al medio.

El que exista un proyecto o fin determinado en la evolución de la vida es, por supuesto, la tesis más heterodoxa dentro del mundillo científico. La más aceptada asegura que no existe ningún proyecto cósmico de ningún tipo y que simplemente el azar ha sido el que ha dado lugar a una molécula extraña, tras millones de años y multimillones de combinaciones entre elementos químicos.

Sopa primordial

Los experimentos de Stanley Miller y Harold Urey en 1953 parecen confirmar esta hipótesis. Miller hizo pasar una chispa eléctrica en medio de una mezcla de gases y obtuvo algunas moléculas básicas de la vida, aunque el experimento no es ni mucho menos concluyente. Al caer esas moléculas en el agua de los océanos, la denominada ‘sopa primordial’, se produjo, con el correr de los eones una enorme combinación de colisiones azarosas entre moléculas que produjo una nueva con la capacidad mágica de dividirse y hacer copias de sí misma.

Como dice el astrónomo de la NASA, Robert Jastrow, “en la actualidad, los descendientes de aquellas moléculas autorreplicantes se encuentran por todas partes sobre la Tierra; se trata de las moléculas denominadas ADN, que constituyen el núcleo de cualquier cosa viva”.

Imagen:
Cadena de ADN

¿Cómo se generó la vida?


Una cosa es hablar de un micromundo que ni siquiera podemos imaginar y otra bien diferente es conocer cómo evoluciona hacia sistemas tan complejos como los seres vivos. El enigma persiste, pero ya se han ofrecido algunas teorías atractivas que lo explican, especialmente la de las estructuras disipativas de Ilya Prigogine (Un ser vivo es una estructura disipativa, ya que absorbe y genera energía para organizarse).

La evolución es errática

Sabemos ahora que los sistemas físicos no siguen una línea evolutiva concreta, sino que su evolución en el tiempo es errática, compleja e impredecible, pero siempre tienden a formar un orden más complejo. Como dice Paul Davies, “es como si dichos sistemas tuvieran una voluntad propia”. En física y en astronomía es frecuente toparse con sistemas que se autoorganizan cuando pasan de un estado ‘predecible’ a otro más complejo y elaborado.

En química y biología, como demostró el premio Nobel Prigogine, el fenómeno resulta mucho más sorprendente. Especialmente en los llamados relojes químicos (reacciones de Belousov-Zhabotinski) que a pesar de tratarse de concentraciones caóticas de varias sustancias químicas, cuando se les aporta algún tipo de energía, las moléculas se autoorganizan.

¿Qué hay de sorprendente en todo esto, se preguntará el lector? Pues bien, las fuerzas entre las moléculas individuales de un reloj químico operan a distancias del orden de ¡centímetros! Billones y billones de átomos comienzan a cooperar en perfecta sincronía como si respondiesen a una orden superior.

Una organización a distancia

¿Que no lo acaba de entender? Es como si un terrestre, un marciano, un neptuniano y un habitante de Alfa Centauri supiesen en el mismo instante que tienen que ponerse a dar saltos. O aún más explicativa es la imagen de todos los humanos de la Tierra dando saltos, pero de pronto y sin que medie comunicación física conocida sólo salten los negros, y después los blancos, y después los rubios e inmediatamente después los morenos, y de nuevo los negros y blancos y así sucesivamente.

¿Por qué todos los humanos se han organizado de manera repentina? Según todas la ciencia convencional esto no tendría que ocurrir nunca así. Y, sin embargo, ocurre con los relojes químicos. Las moléculas saben, de alguna manera que no entendemos, lo que las otras moléculas harán al mismo tiempo en unas distancias para ellas macroscópicas. Dice Prigogine que “existe la posibilidad de comunicación química entre moléculas a larga distancia y durante largos periodos de tiempo. A través de experimentos en estructuras disipativas vemos que la materia está mucho más integrada de lo que suponíamos. El abismo entre la vida y la no-vida es mucho más pequeño de lo que pensábamos”.

¿Tiene la naturaleza voluntad propia?

“Materia activa”, así denomina Prigogine a los sistemas disipativos. En palabras del físico Paul Davies: “Es como si el universo, a medida que se fuera desplegando a partir de su principio homogéneo, la materia y la energía tuvieran la alternativa de elegir las líneas de desarrollo”. ¿Quieren decir los científicos que existe un proyecto cósmico que no comprendemos, que la naturaleza tiene “voluntad propia”? Eso dicen.

Por supuesto que hay teorías para todos. Los reduccionistas y mecanicistas, aseguran que toda la vida no son más que procesos físicos ordinarios y pretenden que cualquier sistema se puede descomponer en porciones y estudiarlas por separado. Ya sabía Aristóteles que existía un plan preestablecido en los organismos. Un “guía invisible”, como le denominaría el fisiólogo francés Claude Bernard el pasado siglo. Incluso un reduccionista como el premio Nobel Jacques Monod decía que “todos los organismos vivos sin excepción son objetos dotados de un propósito o proyecto manifestado tanto en sus estructuras como en sus realizaciones”.

Imagen:
Ilya Prigogine (1917-2003)

martes, 10 de julio de 2012

Tecnofobia: ¿Por qué a algunos nos cuesta tanto manejar las máquinas?


Que te hablen de superordenadores cuando eres incapaz de aprender a usar el tuyo es un poco fuerte. Eres de los que odian el teléfono móvil, de los que no se calientan la comida por no utilizar el microondas y de los incapaces de programar el video. Pero no sufras, esa es una actitud más común de lo que supones y no te consideres un bicho raro, sólo eres un tecnófobo.

Conozco varios escritores, incluyéndome, capaces de hablar maravillas de nuestra época tecnológica y de todos los adelantos que nos proporcionan los ordenadores, pero incapaces ellos mismos de utilizar una computadora para sus escritos porque son unos auténticos ineptos a la hora de usar la tecnología. A Isaac Asimov también le sucedía lo mismo, el cual definió la tecnofobia como "el temor enfermizo al avance tecnológico".

En efecto, es muy honesto temer las radiaciones electromagnéticas que puede desprender un microondas o un ordenador, pero un divulgador de las nuevas tecnologías que escriba aún en máquina de escribir, resulta cuando menos chocante.

Miedo a la tecnología

Los más jóvenes no sufren ese problema, excepto si adoptan una actitud de protesta social contra la uniformidad que impone la tecnología, pero las generaciones anteriores, como decía el contemporizador Eduardo Haro Tecglen, "han sido educadas, aún contra su voluntad, en la obsesión de los valores espirituales y no cree en la máquina; menos, en la cibernética, en la electrónica, aunque viven permanentemente rodeados, cercados por ella para su beneficio".

El propio Asimov explicaba así este rasgo de personalidad: "el pensamiento de abandonar lo que ya se sabe y aprender de nuevo algo diferente es terriblemente atemorizador". El miedo a la tecnología para Asimov es "el mismo temor que impide al mundo aceptar un calendario sensato en lugar del que tenemos ahora, o simplificar la ortografía de las palabras".

Lo malo es la impotencia que las nuevas tecnologías producen a estos ciudadanos. ¿Acaso no te has muerto de vergüenza cuando veías crecer la cola ante el cobrador automático de los aparcamientos públicos, porque te veías incapaz de hacerlo funcionar? Sí, los aparatos conviven con nosotros y facilitan nuestra vida, pero cuando no sabemos sacarles provecho nos sentimos unos auténticos parásitos sociales, incapaces de convivir con el resto de los mortales.

Las máquinas determinan nuestra vida

Es evidente que la técnica ha reportado enormes beneficios para el ser humano, pero le cuesta una disminución de la libertad. Como dice el abogado y escritor medioambientalista Jeremy Rifkin, "cada día se aleja más de su propio yo. Es completa su entrega a esa criatura suya que es la técnica. Las máquinas determinan su horario de trabajo y sus horas de ocio".

Algunos psicólogos hablan de saturación de estímulos, aquellos "que aturden al hombre de la calle, incapacitado para asimilar y juzgar con criterio propio todo ese alud de datos". Y lo peor es que no nos enseñan a enfrentarnos con estas situaciones, ya que la tecnología no forma parte de ningún plan de estudios de enseñanza escolar, a pesar de que cualquier niño aprende antes a comunicarse con la backberry que a expresarse de manera coherente. Es necesario educar a la gente, responsabilizándoles de la técnica que usan en todos sus aspectos, científicos, sociales, medioambientales y económicos.

Los aparatos que nos rodean no sólo nos hacen la vida más fácil y placentera, sino que modifican el mundo que nos rodea y nuestro modo de pensar. Y esto sucede cada vez más, especialmente por el uso de ordenadores, artilugios que reconfiguran nuestra visión del mundo.

Precisamente el ordenador es el campo de batalla de una legión de intelectuales que lo han satanizado y le achacan buena parte de los males presentes y futuros de la humanidad.

Hay que aprender a decir no

Simon Davies, por ejemplo, director general de la organización Privacy Internacional, promueve la conciencia ciudadana para oponerse a los abusos contra los derechos humanos que conlleva la expansión informática. "Hay que aprender a decir no –explica con vehemencia–. No a las empresas, no a las instituciones públicas que nos piden datos personales para introducirlos en sus bases informáticas y que tratan de asignarnos un número de control. Si no paramos la invasión informática, dentro de 10 o 20 años, el futuro será del Gran Hermano (en referencia al organismo que controla hasta los aspectos más sencillos de la vida de la novela 1984 de George Orwell)".

Para Davies, la combinación de tecnologías que proporciona la informática, la genética y las telecomunicaciones van a convertir nuestra sociedad en una pesadilla digna de Orwell.

El activista Kirpatrick Sale, autor de un manifiesto titulado Rebeldes contra el futuro, presume de escribir con máquina de escribir y de haber destruido a martillazos unos cuantos ordenadores: "La tecnología es cada vez más compleja y sus efectos, más y más perversos. Nos estamos haciendo esclavos de las máquinas y vivimos en una auténtica tecnoesfera. Hemos perdido el contacto real con las cosas".

Clifford Stoll, astrónomo y pionero de Internet, también se ha sumado a esta corriente tecnófoba: "Creo que va siendo hora de que alguien se levante y le diga a las gentes que el ciberespacio es un universo inexistente, una alucinación, la nada absoluta".

Por todos los sitios surgen voces contra la tecnología, pero los intereses gubernamentales, industriales y de las empresas de ocio y telecomunicaciones, los apagan con insistencia en los medios de comunicación.

La resistencia contra la máquina comienza ahora a organizarse. El Lead Pencil Club, por ejemplo, reivindica la olvidada costumbre de escribir a mano, ya que consideran que escribir a mano, permite reflexionar sobre lo que se escribe.

El culto a la información

Theodore Roszack, un filósofo de reconocido prestigio, ha escrito El culto a la información, donde arremete contra "los intereses comerciales que pretenden hacer que el ordenador controle nuestras vidas privadas" y nos previene contra el fatal advenimiento de lo que él denomina "la familia electrónica".

El camino parece trazado irremediablemente hasta el punto que algunos lo observan con desesperación y se desequilibran, como sucedió con el profesor universitario estadounidense Theodor Kaczynski, más conocido como Unabomber, condenado a cadena perpetua por enviar a lo largo de 17 años, paquetes bomba que mataron a 3 personas e hirieron a 23. Su manifiesto abogaba por una vuelta a la vida natural y al abandono de la tecnología que ha privado al ser humano de su autonomía. "La revolución industrial –escribe–, y sus consecuencias han sido un desastre para la raza humana. Las máquinas han aumentado la esperanza de vida de los que vivimos en países avanzados, pero han desestabilizado la sociedad y han condenado a los seres humanos a la indignidad".

El artefacto se convierte en el acontecimiento

Con la máquina suceden cosas muy curiosas: delegamos en los aparatos, como si a través de ellos captáramos un mundo más real que el nuestro propio. Por ejemplo, grabamos el acontecimiento, "y el acto de grabarlo se convierte entonces en el acontecimiento. Tenemos que ver la cinta para ver lo que habríamos visto si hubiésemos estado mirando". Eso dice el escritor norteamericano Donald A. Norman, quien cree que "estamos tan ocupados manipulando, apuntando, ajustando, encuadrando, equilibrando y preparando nuestro equipo que el acontecimiento desaparece. El artefacto se convierte en el acontecimiento".

Otro de los argumentos que se utilizan contra la tecnología salvaje es un problema de eficacia. Los libros se han conservado y transmitido durante cientos de años; los datos contenidos en la tecnología actual, no van a servir dentro de 50 años, porque para entonces esos sistemas se habrán transformado completamente. Ese es el caso de miles de carretes magnetofónicos que posee la NASA sobre datos registrados por satélites que contienen una información muy valiosa para elaborar una reciente historia meteorológica y ecológica del planeta. Sin embargo, esas cintas tienen un formato tan anticuado que son incapaces de ser descifradas por los ordenadores actuales.

El comunicólogo y prospectivista Alvin Toffler no fue muy optimista respecto a la relación que podamos entablar con la tecnología en el futuro y cómo va a afectar a nuestras relaciones con los demás. Y eso que Toffler es uno de los más apasionados defensores de la técnica como facilitadora de bienestar y felicidad para la humanidad. Según Toffler, "en Estados Unidos, en muchísimas casas hay ordenadores personales y el niño de 4 o 5 años ya empieza a aprender a relacionarse con una máquina impersonal antes que con los seres humanos, o con un perro, o un gato. Eso para mí es espantoso y va a tener efectos que todavía no podemos imaginar".

Imagen: Tiempos modernos de Charles Chaplin

Neoluditas



Tal vez veamos reproducirse algún día las convulsiones sociales que generó la Revolución Industrial, como la de los "luditas", obreros ingleses seguidores de Ned Ludd, quienes destruían la nueva maquinaria que les dejaba sin trabajo. Hoy, ese apelativo se aplica a los tecnófobos, uno de cuyos casos más extremos ha sido Unabomber, hoy cumpliendo cadena perpetua, quien se dedicaba a enviar bombas en una quijotesca causa contra la tecnología, a la que veía como generadora de todos los males del mundo moderno.

El padre de la cibernética, Norbert Wiener escribía en 1963: "Lo mismo que el carpintero, el mecánico y el sastre expertos sobrevivieron en cierto grado a la primera revolución industrial, el científico y el funcionario experimentados pueden sobrevivir a la segunda. Pero si nos ponemos en el momento en que la segunda revolución (la microelectrónica), una persona normal, con conocimientos medios o escasos, no tendrá para vender nada que resulte de interés para nadie".

Según John Petersen del estadounidense Instituto Arlington de prospectiva, no será el sector industrial el que más sufra, sino el de servicios, donde los procesos automatizados está reduciendo actualmente el número de empleos en un 20 por ciento, lo cual va a requerir una formación continua y elevada de sus trabajadores.

Imagen: superior, Ned Ludd
inferior, luditas destruyendo máquinas

Robots contra seres humanos


En realidad, como dice Joseph Engelberger, fundador de Unimation, el primer fabricante de robots: "la única justificación de la existencia de los robots es estrictamente económica". Un robot siempre será más barato que un trabajador, y los que han impuesto este criterio economicista han sido los japoneses.

Fueron ellos hace 20 años con la doctrina MUM quienes destaparon la Caja de Pandora de la revolución robótica. MUM es el acróstico de Metodología de fabricación automática, tal como define el Ministerio japonés de Comercio Internacional e Industria al utópico objetivo de conseguir que los trabajadores se dediquen únicamente a trabajos inteligentes. La forma más característica de la doctrina MUM sería sustituir por robots a todas las personas que realicen trabajos repetitivos.

Sin embargo, el fin de siglo (su meta) ya pasó y los objetivos no solamente están lejos de cumplirse, sino que los problemas sociales por la sustitución de los trabajadores por automatismos se agudiza cada día más. Para el especialista en prospectiva tecnológica Robert Ayres, de la Universidad Carnegie-Mellon, hacia el año 2035, la automatización eliminará hasta el 90 por ciento de los puestos de trabajo en las industrias de fabricación.

Destejiendo la urdimbre social

El impacto que este hecho va a tener sobre el tejido social será importante. Ayres prevé la constitución de una élite definida por las oportunidades educativas a largo plazo, pero considera que los robots no están preparados para asumir todos los trabajos, ni siquiera una gran parte de ellos, por lo tanto no se plantea la posibilidad de que las personas se conviertan en parásitos o que vivan a costa de los esfuerzos de hordas de esclavos robóticos. Los robots jugarán un papel secundario en la economía del siglo XXI.

Para los empresarios y defensores de los robots, decir que el automatismo destruirá empleo es como decir que la industria acabó con muchos empleos agrícolas, o que la industria del automóvil acabó con los herreros, cuando lo cierto es que ayudaron a crear millones de trabajos, pero de otro tipo.

Pero no hay mucho donde elegir debido a que la globalización de la economía imposibilita que un país desarrollado permanezca sin robotizar en un mundo lleno de robots. Como dice Karen A. Frenkel en su libro Robots, escrito en colaboración con Isaac Asimov: "Los sindicatos se enfrentan con la alternativa de perder empleos en beneficio de los robots, o bien perder aún más empleos al disminuir las industrias".

Imagen: Film Yo robot de Alex Proyas

viernes, 6 de julio de 2012

Teleportación: una puerta al infinito



Hasta no hace mucho el concepto de teleportación estaba reservado a la ciencia ficción o a la religión, pero un brillante trabajo de seis científicos de finales del pasado siglo vino a sentar las bases teóricas de ese concepto, que tal vez en menos de un siglo veremos concretarse en algún artilugio de la más avanzada tecnología.

A veces la ciencia nos sorprende con descubrimientos que los avezados lectores de ciencia-ficción no hubiéramos creído nunca que fueran posibles.

Artilugios de la ciencia ficción

La máquina del tiempo se ha hecho teóricamente factible con los trabajos de Kip Thorne sobre agujeros de gusano; las comunicaciones  instantáneas podrían ser realidad gracias al teléfono taquiónico de Gregory Bendford; los ordenadores han creado un mundo irreal donde la gente se relaciona gracias a las redes virtuales; los robots nos rodean en nuestra vida cotidiana, aunque les llamemos electrodomésticos y no tengan forma humanoide; la ingeniería genética ya no considera imposible resucitar dinosaurios o momias de la IIIª Dinastía; lentamente, la conquista del espacio se va afianzando; ... ¿qué falta?

Ah, sí, la teleportación o teletransporte. Ese fantástico sistema que permite al capitán Kirk o Picard subir de inmediato a la nave Enterprise de Star Trek, o a los expedicionarios de Stargate, aparecer de pronto en un planeta a miles de años luz. Vemos como los héroes se desintegran en multitud de puntos luminosos que se desvanecen con un ligero chisporroteo, mientras en ese preciso instante, en un distante planeta, los brillantes confetis surgen de la nada y forman otra vez la silueta del transportado.

Durante años pensamos que sería imposible, que la ciencia nunca dominaría la energía de tal forma que hiciera factible la teleportación. Pero, a lo mejor, estábamos equivocados, porque la mecánica cuántica ya dejó abierta la posibilidad de este tipo de transmisiones, pero con un resquicio sólo teórico y para masas inferiores a la de una partícula.


Teleportación cuántica

Hoy son numerosos los experimentos sobre teleportación cuántica, pero el primer trabajo importante científico apareció en la publicación física más importante del mundo, Physical Review Letters, y estaba firmado por seis físicos teóricos (dos americanos, un israelí, un australiano y dos canadienses), dirigidos por Charles Bennett de los laboratorios IBM. El artículo se titulaba Teleportación, y en él explicaban el concepto sobre el que iban a trabajar: “Hemos escogido llamar ‘teleportación’ a este nuevo fenómeno usado en la ciencia-ficción que significa que se hace desaparecer una persona o un objeto, mientras que una réplica exacta aparece en otra parte”.

La transmisión que propusieron estos científicos podría compararse al fax: lo que llega al receptor es una copia, no el original, aunque lo que llega está reproducido como el original. El sistema consiste en trabajar con dos pares de partículas gemelas, y el receptor debe manipular su par de partículas hasta que reproduzcan las mismas características propuestas por el emisor.

Las entradas teleportación cuántica y entrelazamiento cuántico de la wikipedia son avezados entretenimientos para entendidos, si lo que os cuento os parece excesivamente divulgativo.

Sin desafío para la física

El traslado de personas y objetos que propone la ciencia-ficción sí viola las leyes de la física, ya que en esos casos se trata de hacer viajar algo más rápido que la velocidad de la luz. Pero, el planteamiento teórico que expresaron los investigadores de IBM en su artículo, no desafía ninguna ley física, porque no tiene lugar instantáneamente, o más rápido que la luz.

De hecho, la teoría no permite la teleportación de un ser vivo, o en sentido estricto ni siquiera una partícula. Lo que expusieron ha sido el medio de crear una réplica exacta de una partícula en el lugar que se desee. Pero no se desplazaría la partícula propiamente dicha, sino que se transmitiría la información necesaria para la reconstrucción de una copia exacta. No se transmite la materia, sino la información para duplicar la materia.

Si a alguien suena extraño o imposible la idea expresada, le debemos recordar que también hemos aprendido a enviar sonidos e imágenes a la velocidad de la luz. La radio y la televisión son posible gracias a ello. Pero no enviamos imágenes o sonidos, porque se quedan en el lugar de la emisión y dejan de existir al cabo de una fracción de segundo.

La información viaja

Lo que enviamos es información, que adquiere forma de ondas eléctricas, mediante la cual puede recrearse el sonido o la imagen original.

Enviar sonido es relativamente fácil, ya que se trata de una representación unidimensional. Un sonido sólo posee un nivel de sonoridad, un único valor. Una escena visual, una imagen, ya requiere información sobre miles de variaciones en brillos y colores porque estamos tratando con un modelo bidimensional de luces y sombras.

La cámara se encarga de diseccionar rápidamente los valores lumínicos, les da un valor que se transporta hasta el aparato receptor que lo reproduce. Si la televisión transmite una astronómica cifra de información en cada segundo, podemos imaginar los datos que requeriría una partícula polidimensional. Ahí estriba la dificultad de la teleportación.

Teletransportar un cuerpo humano

Lo cierto es que el día que se consiga llevar a la práctica esta posibilidad que ofrece la física teórica, se habrá dado un paso muy importante para conseguir la teleportación, aunque si bien podría hacerse con una partícula, con nuestros conocimientos actuales, conseguirlo con un cuerpo humano sería una tarea imposible ya que se requeriría el envío de información de mil cuatrillones de partículas (1028, un uno seguido de 28 ceros). Desgraciadamente, ni siquiera se sabe reproducir a nivel molecular un simple trozo de papel, así que un ser humano...

Sí sabemos, sin embargo, que la idea de la teleportación, el transporte instantáneo, se encuentra reflejada como milagros en muchas religiones, especialmente las orientales; aunque en ellas la idea más frecuente es la de autoteleportación, un proceso que tiene lugar sin intervención de una psiquis extraña, o la bilocación. Un fenómeno psíquico que algunos autores, como el matemático Rudy Rucker, o el historiador de las religiones Ioan P. Couliano, bastante alegremente atribuyen a un pliegue en el espacio-tiempo, que conocemos como la cuarta dimensión.

Teleportación mental y literaria

Pero esas hipótesis de teleportación mental no pueden ser medidas, ni reproducidas en laboratorio, ni tampoco podemos especular sobre un posible uso social de tal conocimiento. Para hacerlo, nos tenemos que valer de la ciencia, aunque de momento entre más en el terreno de la ciencia-ficción que en el de la tecnología propiamente dicha.

Posiblemente, la primera máquina de teletransporte que se imaginó partió de la pluma del espiritista Arthur Conan Doyle, el creador de Sherlock Holmes, en su relato La Máquina Desintegradora (perteneciente a las Aventuras del Profesor Challenger), escrito hacia 1925. Curiosamente su sistema de reintegración del ser sometido a la máquina se basa, según la historia, en el “fenómeno llamado del apport (‘aporte’), es decir, de la aportación desde cierta distancia de un objeto que se presenta de pronto en un lugar nuevo. ¿Cómo podría realizarse ese fenómeno si no es mediante la liberación de las moléculas y su transporte sobre una onda eléctrica, para volver a reunirse exactamente como estaban, atraídas por una fuerza irresistible?”.

Dividiendo átomo a átomo

En la teoría científica, el aparato funcionaría dividiendo átomo a átomo el objeto o la persona a transportar, elaborando así una cadena de información que se expresaría algo así como: átomo de carbono, átomo de hidrógeno a un micrón, átomo de oxígeno a una mil millónesima de centímetro, y así sucesivamente hasta el final, utilizando además un preciso sistema de coordenadas para situar cada partícula. Si esto se consiguiera, con la tecnología apropiada no sería muy difícil reproducir el fenómeno a la inversa y duplicar el original sin equivocarse en un sólo átomo.

Pero las dificultades prácticas para este tipo de transportes serían casi insalvables. Se puede comparar al duplicado de una ciudad como Barcelona, que para teleportar requeriría la realización de un duplicado exacto con cada uno de los elementos que comprende, cañerías, cristales, ladrillos, asfalto, árboles, etc. Una tarea imposible, ¿verdad?. Pues desmenuzar un ser humano sería al menos un billón de veces más complicado de duplicar que una gran ciudad.

Una tarea casi infinita

El prospectivista, antes que autor fantacientífico, Arthur C. Clarke comparó el tiempo que tarda en transmitirse una imagen de televisión y ha calculado que el teletransporte de todos los átomos de un ser humano tardaría en ejecutarse la friolera de 20 billones de años, “todo el tiempo disponible antes de que las estrellas dejen de existir”.

También Clarke elaboró una simpática analogía para entender este concepto. Imagina a Leonardo da Vinci en su tiempo tratando de reproducir mecánicamente, ya que desconoce la electricidad, el sistema de la televisión; esto, transmitir imágenes a distancia.

Como adecuadamente demuestra, puede conseguirse mediante un sistema de semáforos y señales y un código binario, pero se tardarían veinte días en transmitir la imagen de un único cuadro, y ello con bastantes imperfecciones. Tal vez menos días contando un gran número de operadores.

Añade Clarke: “El que este ‘trabajo’ pueda ser realizado por medios electrónicos en la treintava parte de un segundo, le hubiera parecido a Leonardo –pese a ser el hombre con mayor amplitud de visión del futuro que jamás existió– una absoluta e incuestionable imposibilidad”.

500 años no es nada

Divertido, cuando lo observamos desde la perspectiva que nos dan 500 años de adelantos científicos, pensar que gracias a la electrónica, ese fenómeno se reproduce en todos los hogares del mundo a cada momento.

Posiblemente tengamos que esperar otros quinientos años a que la tecnología nos proporcione ordenadores cuánticos que puedan solventar las dificultades de la teleportación.

Hace 50 años, nadie podía imaginar que las propiedades de la antimateria nos permitiría crear un sistema para observar el interior del ser humano, incluso sus procesos mentales, como es la tomografía por emisión de positrones (TEP), cuyos equipos pueden verse en algunos hospitales.

Todavía hay que llamar la atención sobre dos problemas añadidos:

Primero, ¿cómo se podría transmitir los pensamientos de un ser humano?, porque sería realmente difícil traducir a categorías de átomos una reflexión o un sentimiento.

Y, segundo, ¿qué sucedería si el artilugio se usara para replicar la materia? Puesto que un teleportador, tal como lo concibe la ciencia, es un duplicador de seres u objetos, podrían fabricarse muchos seres humanos idénticos. Las imágenes que produce esta visión no son nada halagüeñas.

El más importante debate de la física

La teleportación, tal como se planteó en el trabajo de Charles Bennett y sus colegas, se encuentra en el centro del más importante debate de la física contemporánea: El que enfrentó a Einstein con los fundadores de la mecánica cuántica. Como saben los lectores, el teorema de Bell resolvía la paradoja EPR (Einstein-Podolsky-Rosen), según la cual creían demostrar que la realidad es ‘separable’, es decir que las partículas no pueden ejercer influencias instantáneas entre ellas, al contrario de lo que afirma la mecánica cuántica.

Pero Einstein no llevaba razón, según demostró Alain Aspect http://es.wikipedia.org/wiki/Alain_Aspect en 1980. El universo es inseparable: en un sistema de dos partículas gemelas, cuando se cambia la característica de una de ellas, la otra se modifica instantáneamente, se encuentre donde se encuentre, aunque sea a miles de años luz.

No se trata de que algo viaje más rápido que la luz, ya que al parecer nada puede viajar a esa velocidad, sino que deben considerarse las dos partículas como entidades inseparables. Esa característica de no-separabilidad es la que encuentra aplicación en teleportación.

Las partículas gemelas

Cómo los científicos han conseguido demostrar que la teleportación es posible a nivel cuántico.

Es necesario fabricar un par de partículas gemelas, A y B. Como ya sabemos se trata de un par EPR, es decir que todo lo que acontece a una, sucederá instantáneamente a la otra. Una (A) se queda en la Tierra y otra (B) se transporta por medios convencionales a un planeta lejano. Imaginemos que ahora queremos tener en ese planeta una réplica exacta de una partícula extraña, la C.

Se ponen en relación A y C par a que interactuen entre ellas y se mide la propiedad que se desee copiar (por ejemplo, la polarización) de la nueva pareja de partículas. Los resultados de esta medida se comunican por un medio de comunicación clásico (teléfono o radio) al encargado de la lejana partícula B, que al ser medida adquiere las propiedades de A y C.

Lo más curioso es que la física cuántica no obliga a las partículas a adquirir una cualidad, la polarización por ejemplo, hasta que es medida, según estipula el Principio de Incertidumbre de Heisenberg. Es decir, hasta que no existe un observador, no existen más que probabilidades, nunca nada real.


Aplicaciones de la teleportación cuántica

Los físicos ya imaginan fantásticas posibilidades para la teleportación, aunque sea de una partícula. Por ejemplo, conocer el estado cuántico d e una estrella a la que ha llegado una sonda espacial, aunque eso resulta poco interesante para la industria o para el hombre de la calle a quien sólo interesa la aplicación práctica de cualquier descubrimiento.

En los diseños de experimentos para teleportar partículas en cadena, se ha pensado en una primera aplicación: la criptografía, es decir el estudio de los códigos secretos. Una sucesión de estados cuánticos parece ser el más confidencial de los mensajes. Un espía que quisiera interceptar un mensaje cuántico, se encontraría que nadie más que el poseedor de la partícula EPR puede reconstruir el estado cuántico codificado en el origen. No es casualidad que entre los científicos que han desarrollado la teleportación se encuentren físicos, informáticos y has ta un especialista en criptografía, financiados por la compañía IBM, la cual ve en perspectiva la construcción de ordenadores cuánticos.

Este tipo de ordenadores pueden suponen una revolución del conocimiento. Las leyes clásicas de la teoría de la información, tal como la conocemos, se basa en el sistema binario, o es sí o es no, es 1 o es cero, es algo o es nada, pero las partículas tienen la posibilidad de encontrarse en varios estados simultáneamente.

Sabemos que son a la vez onda y corpúsculo, aunque se decantan por una u otra forma cuando son observados, es decir cuando adquieren carta de naturaleza. Los ordenadores cuánticos serían semejantes al cerebro humano, capaces de tratar paralelamente los datos y ejecutar varias tareas intelectuales a la vez.

Imágenes:
La teleportación fantástica: Star Trek
La teleportación cuántica (abusando de la gentileza explicativa de Pijama surf)
Hardware para la investigación en teleportación cuántica

El Teorema de Bell


¿Puede algo viajar más deprisa que la luz?¿Podría explicar la ciencia la telepatía? El teorema de Bell daría respuesta a muchos fenómenos que hoy nos resultan incompresibles, ya que propone que el universo está conectado entre sí de una forma aún desconocida por la física.

Todo comenzó en 1935, cuando Einstein y sus colegas Podolsky y Rosen trataron de rebatir la idea de que el universo está regido por el azar, tal y como proponía la mecánica cuántica. El descubridor de la teoría de la relatividad había asegurado que “Dios no juega a los dados”, dando a entender que debía existir una explicación matemática para los fenómenos de incertidumbre en las partículas.

La paradoja EPR

Con estas premisas, los tres científicos propusieron, entre otras ideas, una paradoja, que se conoce como EPR. Expusieron que, en un sistema de dos partículas gemelas, la medición de una de ellas no podría afectar a la otra que se encontrara a millones de años luz de distancia, ya que según la teoría de la relatividad nada puede viajar por encima de la velocidad lumínica. Si la mecánica cuántica tenía razón, al cambiar el spin (movimiento de rotación interna) de una partícula, simultáneamente su gemela quedaría afectada sin importar la distancia a la que se encontrase.

En 1964, el físico John Bell del CERN de Ginebra desarrolló una fórmula matemática conocida como desigualdad de Bell, que expresaba la diferencia entre la teoría cuántica y la relatividad, es decir una base teórica para que se comprobase experimentalmente la paradoja EPR. A falta de la tecnología que confirmase esta teoría, el experimento no pudo llevarse a cabo hasta 1982, cuando Alain Aspect de la Universidad de París demostró, sin lugar a dudas, que Einstein no llevaba razón.

Sin embargo, abrió una profunda reflexión filosófica: ¿es la realidad tal como la percibimos? En el universo de las partículas, que es también nuestro universo, el espacio y el tiempo son sólo convenciones sin ningún sentido ya que la información es instantánea. Falta ahora el método científico que aplique ese conocimiento a nuestra realidad, a las capacidades de nuestra mente. Cuando eso se consiga podremos comprender porqué la revista Physics Today comentó: “Todo aquel que no esté preocupado por el teorema de Bell, debe tener una piedra en lugar de cerebro”.

En la imagen:
Alain Aspect