Ideas de fondo


Richard Feynman profesor de Caltech, uno de los grandes físicos del siglo XX, irreverente, despreocupado por la autoridad, de pensamiento ágil, crítico, constructivo, de ideas muy originales, altamente creativo, el que piensa diferente. De Feynman tomamos la idea de hacer la física no siguiendo el orden histórico de los descubrimientos, sino siguiendo las ideas más fundamentales, empezando la física por el concepto del átomo. También tomamos de él el peso del tema sobre el método: Cómo enseñar un tema resulta automáticamente si dominamos el tema, si estamos activos, inmersos en el tema. No hay que pensar tanto en las técnicas pedagógicas, sino más en el tema a tratar. ¡Quien sabe a fondo lo que va a enseñar, sabe cómo enseñarlo!

Una fórmula matemática permite crear agujeros de gusano electromagnéticos

Científicos norteamericanos han ideado una fórmula matemática que permite, en teoría, construir con metamateriales un túnel electromagnético invisible que, al igual que el “agujero de gusano” descrito por la física, es capaz de anular el espacio entre dos puntos. La fórmula matemática se basa en una anterior concebida para posibilitar la invisibilidad de las radiaciones de microondas, pero esta nueva versión valdría para todas las frecuencias de ondas electromagnéticas, según sus creadores. Aunque todavía no existen los metamateriales necesarios para fabricar este túnel electromagnético, en caso de que finalmente

pudiera desarrollarse sus aplicaciones rozarían la ciencia ficción.


Un equipo de mate máticos norteamericanos afirma en un artículo publicado este mes en la revista Physical Rev ie w Letters, que una tecnología creada anteriormente, y que se usó para realizar una capa qu e vuelve invisible lo que rodea, podría ser aplicada también para generar un tipo de túnel invisib le que permitiera a los objetos desaparecer al entrar en él, y reaparecer al otro lado.

El professor Allan Greenleaf, de la Universidad de Rochester y co-autor de este estudio, declaró en un comunicado de dicha universidad que si se diseñara un material que se ajustase a las especificaciones matemáticas por ellos definidas, el túnel permitiría que los objetos viajasen de un lado al otro del espacio sin recorrer distancia alguna.

Este túnel electromagnético, explican sus autores, actúa como el agujero de gusano descrito por la física respecto a las ecuaciones de Maxwell, ya que efectivamente modifica la topología del espacio frente a la propagación de las ondas EM, que son las que perturban el campo electromagnético.

La tecnología actual permite crear objetos invisibles sólo a las radiaciones de microondas, pero la teoría matemática desarrollada por estos científicos serviría para que el efecto del agujero de gusano funcionara para todas las frecuencias de ondas electromagnéticas.

Diversas aplicaciones podrían derivarse de este invento, por ejemplo, en cirugía endoscópica (con ayuda de un endoscopio o instrumento en forma de tubo, que contiene una luz y una óptica), en la que la cirugía está guiada por imágenes de resonancia magnética (MRI y cuyo problema radica en que los intensos campos magnéticos generados por el escáner MRI afectan a las herramientas empleadas en dicha cirugía, que a su vez pueden distorsionar las imágenes.

Con materiales compuestos

Sin embargo, según Greenleaf, si esas mismas herramientas pasaran a través de este túnel electromagnético, quedarían ocultas a los campos, permitiendo que se vieran solamente sus extremos.

Para idear la futura tecnología del agujero de gusano, Greenleaf y sus colaboradores utilizaron matemáticas teóricas con las que diseñaron un dispositivo para guiar las ondas electromagnéticas de forma aprovechable.

El diseño sirvió asimismo para idear las capas de unos materiales compuestos denominados metamateriales, que obtienen propiedades únicas a partir de su estructura y no de su composición, y que serían la base del túnel invisible. Es el orden de los constituyentes de estos metamateriales lo que permite que tengan propiedades físicas distintas a las de dichos constituyentes, y también a las de los materiales formados de manera natural.

Los metamateriales pueden refractar la luz en sus proximidades, ocultando así lo que rodean que, al reflejar luz, se vuelve invisible. De esta misma técnica hablamos ya en un artículo de Tendencias21, en el que explicamos cómo ingenieros estadounidenses habían diseñado un prototipo con forma de cono lleno de minúsculas agujas que permitían a la luz pasar a través de ellas.

Matemáticas más complejas

En 2006, el físico David R. Smith, junto con otros científicos, diseñaron un dispositivo de invisibilidad que permitía que las microondas pasaran alrededor de él, es decir, que se ha conseguido hacer invisibles objetos aunque sólo a la radiación de microondas.

Greenleaf y sus colegas han empleado una geometría aún más elaborada para especificar con exactitud qué propiedades se necesitan para que un agujero de gusano formado por un metamaterial pueda crear el efecto de invisibilidad del túnel, pero para cualquier longitud de onda. Asimismo, han calculado que efectos ópticos adicionales se darían si el interior del túnel fuera recubierto con una variedad de metamateriales hipotética.

En el caso de que dicho agujero de gusano operase con objetos de nuestra vida cotidiana, es decir, franjas visibles del espectro electromagnético, si el observador mirase desde uno de los extremos, vería una versión distorsionada de lo que está en el otro extremo. Por otro lado, dependiendo de la longitud del túnel, y de la manera en la que la luz rebota dentro del mismo, el espectador podría ver, bien una realidad distorsionada, o simplemente un indescifrable remolino de luces y formas.

Este agujero de gusano electromagnético tendría así aplicaciones que suenan a ciencia ficción. Por ejemplo, si los metamateriales empleados en el tubo pudieran desviar todas las longitudes de onda de la luz visible, podrían utilizarse para fabricar dispositivos de televisión en tres dimensiones.

Sin embargo, concede Greenleaf, estas matemáticas aún está lejos de concretarse. Incluso teniendo el corpus teórico necesario, aún queda por aplicarlo en un prototipo que funcione realmente.

La luz lanza una bola curva

Investigadores de la Universidad de St. Andrews han realizado un sorprendente descubrimiento usando rayos de luz que pueden viajar a través de ángulos.

Los académicos han desarrollado una idea de partículas en movimiento dentro de rayos de luz que les permite curvarlos en lugar de ir a lo largo de una línea recta basándose en trabajos del área de manipulación óptica.

El Profesor Kishan Dholakia de la Escuela de Física y Astronomía comentó que, “La física nos guarda muchas sorpresas; nuestra comprensión de cómo se mueve y comporta la luz se ve retada por tales rayos y es apasionante verlos moverse en un área interdisciplinar - ¡la luz nos ha lanzado una bola curva!

“Un rayo de luz estándar se dispersa conforme viaja debido a un efecto conocido como difracción. Toma un puntero láser – debería tener 100km de anchura para que este luz pudiese alcanzar la Luna.

“Nuestra investigación ha demostrado que ciertos rayos de luz no se difractan ni dispersan – viajan alrededor de ángulos y propulsan partículas para sortear esquinas. Este es un nuevo descubrimiento en el fenómeno de las partículas en movimiento”.

Hace 30 años los científicos encontraron que el rayo Airy, nombrado así por el famoso astrónomo británico Sir George Airy, tenía un paralelo matemático en la óptica. Recientemente, se descubrió que el rayo en realidad se “dobla” o curva conforme se mueve a través del espacio no como un puntero láser, por ejemplo.

El equipo de St. Andrews ahora ha llevado las cosas mucho más allá utilizando esta inusual propiedad de curvatura de los rayos Airy para enviar partículas literalmente alrededor de curvas y ángulos, barriendo o “limpiando” de partículas una cámara de muestras.

El miembro del equipo Joerg Baumgartl dijo, “El rayo Airy nos permite limpiar la cámara de muestras sin mover los campos de luz: esencialmente funciona como una pequeña máquina de nieve para partículas de vidrio microscópicas e incluso células. Podría tener grandes aplicaciones en la ingeniería de microfluidos y biología celular”.

Los hallazgos de Joerg Baumgartl, Michael Mazilu y Kishan Dholakia en la Escuela de Física y Astronomía se publicaron en la última edición de la revista Nature Photonics.

El equipo está ahora explorando un número de nuevas avenidas con estos campos de luz incluyendo la ordenación de intrigantes nuevas partículas así como posibles métodos de separación de células elegidas de entre una población dada.

“Este rayo demuestra un maravilloso ejemplo de cómo un elegante y tal vez oscuro descubrimiento matemático tiene una poderosa analogía en los rayos láser y se convierte en nuevas aplicaciones para la ciencia”, dijo Michael Mazilu.

Matemáticos demuestran que los agujeros de gusano son posibles


En un estudio publicado en el ejemplar del 12 de Octubre de la revista Physical Review Letters, Allan Greenleaf, profesor de Matemáticas de la Universidad de Rochester, y sus colaboradores, dan credibilidad a la posibilidad de que en un futuro, la humanidad sea capaz de abrir un túnel invisible entre dos puntos en el espacio formando lo que conocemos como agujero de gusano.

Según Greenleaf, la tecnología a la que llegará el hombre será capaz de posibilitar traslados de esta manera, instroduciendo un objeto en una boca del túnel haciendolo desaparecer y viendo como reaparece en la otra boca del túnel.

La tecnología actual ya ha conseguido hacer invisibles objetos sólo a la radiación de microondas, pero esta teoría matemática permite la creación de un agujero de gusano electromagnético para cualquier longitud de onda, en base al cual, Greenleaf y sus colaboradores proponen una innumerable cantidad de aplicaciones.

Para crear este tipo de tecnología, Greenleaf y su equipo se basan en la Matemática Teórica para diseñar un dispositivo que guíe las ondas electromagnéticas de una manera aprovechable. Los investigadores podrán entonces utilizar estos avances para crear estructuras debidamente tratadas, formadas por los llamados metamateriales, para curvar la luz en sus proximidades.

El año pasado, David R. Smith, profesor e Ingeniería Electrónica e Informática en la Duke’s Pratt School, diseñó junto con sus colaboradores de un dispositivo invisible en forma de disco que permitía a las microondas pasar a su alrededor. Greenleaf ha empleado una geometría más elaborada para establecer exactamente cuáles son las propiedades necesarias para crear el metamaterial que nos dé paso a la obtención el efecto de “túnel invisible”.

En el caso de que dicho agujero de gusano operase con objetos de nuestra vida cotidiana, es decir, franjas visibles del espectro electromagnético, si el observador mirase desde uno de los extremos, vería una versión distorsionada de lo que está en el otro extremo, de acuerdo con los resultados que arrojan las simulaciones efectuadas por Greenleaf y su gente. Dependiendo de la longitud del túnel, y de la manera en la que la luz rebote dentro del mismo, el espectador podría ver una realidad distorsionada o simplemente un indescifrable remolino de luces y formas.

El equipo de investigadores ha sugerido también una utilización para el agujero de gusano electromagnético propia de películas de ciencia ficción. Si los metamateriales que conformasen la estructura exterior del agujero fuesen capaces de desviar luces correspondientes a cualquier longitud de onda, podríamos usar los túneles para crear una televisión de 3D. Imaginando cientos de miles de agujeros de gusano distribuídos a lo largo, ancho y alto de un espacio tridimensional, rápidamente se nos viene al pensamiento lo que podríamos obtener. Dichos túneles serían invisibles, a la par que nos podrían permitir ver qué se cuece al otro extremo del agujero. Sería algo así como una gran cantidad de píxeles flotando en el aire. De este modo, podríamos sentarnos en el sillon, ativar la televisión 3D y disfrutar de unas placenteras vistas de la Tierra desde nuestro satélite, por poner solamente un ejemplo.


Experimento de Rutherford

En 1911 se creía que los átomos estaban compuestos por una esfera con carga positiva repartida uniformemente por todo su volumen, y que dentro de ésta se encontraban unas pequeñas partículas, llamadas electrones, con carga negativa y una masa muy pequeña. También se conocía que el tamaño de los átomos debía de ser del orden de un angstrom (10-10 metros, una diez mil millonésima parte del metro).

Entonces, un experimento que se les ocurrió hacer para comprobar dicho modelo del atomo, conocido como modelo de Thomson, a Geiger y a Marsden (a sugerencia de Rutherford), fue lanzar partículas alpha (partículas que tienen carga positiva) contra una fina lámina de oro.

¿Qué debería ocurrir?

Dado que se lanzaban partículas con carga positiva y con una masa mucho mayor a los electrones, deberían ser atraídas por dichos electrones, a la vez que serían repelidas por la carga positiva del átomo. Debido a que la carga positiva del átomo estaba difusa por todo el volumen de la esfera, esta carga no debería interferir demasiado. Y como la masa de las partículas alfa era mucho mayor a la de los electrones, la fuerza que ejercían los electrones debería de desviar un ángulo pequeño a las partículas, obteniendo que éstas se dispersaban ligeramente respecto de su dirección inicial.

¿Qué se observó?

Lo que realmente se observó fue que un gran número de las partículas lanzadas se desviaba un pequeño ángulo, lo que cumplía las previsiones.
Sin embargo, también se observó que varias partículas eran repelidas unos ángulos enormes, llegando algunas incluso a “dar marcha atrás” y salir en dirección contraria a donde se estaban lanzando.

Esto, para la idea que se tenía acerca del átomo, era tan impresionante e imprevisible que, en palabras del propio Rutherford, era igual a si se disparaba una bala contra una hoja de papel y ésta rebotase.

Conclusiones y nuevo modelo

Por lo tanto, la única salida posible fue que el modelo de Thomson era erróneo, y la carga positiva del átomo se debería concentrar en una esfera (el núcleo) de pequeño diámetro en el centro de éste.
Con esto, se tenía que si las partículas pasaban a una distancia suficiente, se obtenía un comportamiento similar al modelo de Thomson. Mientras que si las partículas se acercaban de frente al núcleo, éstas deberían ser repelidas hacia atrás, que era exactamente lo que ocurría.
A este modelo se le llamó modelo de Rutherford por ser él quien lo enunció, y consiguió traer de nuevo la paz a la física, con una teoría consistente con la experiencia, aunque por muy poco tiempo…




Descarga del plugin DJVU

Para poder visualizar algunos libros que estan en DJVU, el plugin del programa lo puedes bajar haciendo clic en la imagen


LIBRO GRATIS


Este es un regalo, para todos aquellos colegas que día a día se desarrollan en el curso de Geometría. Exitos colegas ( EL libro esta en DJVU).

LIBROS GRATIS


BIOGRAFÍA DE EINSTEIN

PRIMERA PARTE



SEGUNDA PARTE


TERCERA PARTE


CUARTA PARTE

RUPTURA DE SIMETRÍA (una explicación asimilable)


A los humanos nos encanta el confort de la simetría – las imágenes idénticas en el espejo, las alas gemelas de las mansiones barrocas, el mismo número de jugadores en ambos equipos de fútbol.

Así que en cierto modo, a todos nos sorprendió cuando los físicos dijeron que el universo se construyó en base a una ruptura de la simetría.

La creación no fue un suceso equilibrado y calmado, afirman. Esencialmente se trató de un asunto asimétrico.

De haber sido simétricas las cosas durante el Big Bang, hace 13.700 millones de años, se habrían formado cantidades iguales de materia y antimateria, como cuando uno excava un agujero en el suelo y observa que el volumen del hoyo es igual al de la tierra desalojada.

El problema es que la materia y la antimateria son enconados rivales.

Cuando una partícula de materia colisiona con su colega de carga opuesta, los dos se aniquilan entre si en una explosión de energía. Por usar de nuevo la imagen del agujero, el barro rellenaría el hoyo excavado.

Pero algo sucedió en la agitada sopa de partículas primarias del instante posterior al Big Bang. La materia le ganó la mano a la antimateria.

Gracias a este exceso de materia, tenemos las galaxias, las estrellas, la Tierra y toda la vida que hay sobre ella. Sin la consecución de esta misteriosa victoria, no estaríamos aquí.

La explicación de este enigma se encuentra en el corazón del trabajo que ha llevado a dos japoneses y a un estadounidense a ganar el Premio Nobel de Física de este año.

Sus logros, a la hora de explorar la violación de la simetría, fortalecieron y ampliaron el modelo conceptual de fuerzas y partículas fundamentales, tal y como el comité del Premio Nobel comenta en su nota de prensa.

“Cada partícula de materia posee un opositor, la partícula de antimateria”, comenta Etienne Auge, antiguo director del Instituto Nacional de Física Nuclear y Física de Partículas (IN2P3).

“Lo raro, no obstante, es que vivamos en un mundo que consista casi enteramente en materia”.

Yoichiro Nambu de los Estados Unidos, ganó la mitad del galardón por sus teorías (desarrolladas en la década de 1960) sobre “ruptura espontánea de la simetría”.

Su trabajo apuntaló la noción de que poco después de que el universo comenzara a enfriarse tras el Big Bang, surgió una única superfuerza que dio origen a tres de las cuatro fuerzas de la naturaleza conocidas hoy en día.

Estas son la fuerza nuclear fuerte, la fuerza nuclear débil y la fuerza electromagnética, las cuales actúan, a través de partículas mensajeras, sobre el bestiario de partículas indivisibles que conforman la materia.

Los otros dos laureados, Makoto Kobayashi y Toshihide Maskawa de Japón, demostraron que en ciertas condiciones, la antimateria no obedece las mismas reglas que la materia.

Descubrir la anomalía, “fue un poco como sostener un libro y mirarlo a través de un espejo, para darse cuenta entonces de que en lugar de ver la escritura invertida, se ve correctamente”, comenta Philip Diamond del Instituto Británico de Física.

Esta ruptura en la simetría solo podría explicarse por la presencia de tres familias de partículas conocidas como quarks, sugirieron Kobayashi y Maskawa. Casi tres años más tarde, su suposición se vio confirmada experimentalmente.

Aún quedan dos cosas pendientes en el Modelo Estándar, el vehículo conceptual en que se expresa a día de hoy la física de partículas.

La primera es la explicación del modo en que las partículas adquieren masa, y la segunda es una explicación para la fuerza de la gravedad.

La explicación para la masa podría venir del Bosón de Higgs, propuesta como un campo omnipresente y pegajoso que interactúa con otras partículas.

El “Higgs” es famoso por ser el objeto de deseo del recién inaugurado Gran Colisionador de Hadrones (LHC), el enorme acelerador de partículas ubicado en Ginebra.

Y en cuanto a la gravedad, una de las ideas propone la existencia de una partícula llamada gravitón que transporta la fuerza.

¿Qué provoca la gravedad? Tal y como explicó el comité del Nobel ayer, “ese es el reto colosal al que se enfrentan los físicos en la actualidad”.

PREMIO NOBEL DE FÍSICA 2008

Un americano y dos japoneses fueron galardonados con el premio Nobel de Física


Han sido galardonados por descubrir el origen de la ruptura de la simetría en la física de partículas


La Real Academia Sueca de las Ciencias ha concedido el Premio Nobel de Física 2008 al estadounidense de origen japonés Yoichiro Nambu "por el descubrimiento del mecanismo de ruptura espontánea de simetría en la física de partículas", y a los japoneses Makoto Kobayashi y Toshihide Maskawa por "el descubrimiento del origen de la ruptura de simetría que predice la existencia de al menos tres familias de quarks en la naturaleza".

Yoichiro Nambu, que tiene nacionalidad estadounidense, nació en 1921 en Tokio. Formado en la Universidad de la capital japonesa, es profesor emérito en el Enrico Fermi Institute, de la Universidad de Chicago. Le corresponde la mitad del premio, valorado en un total de 10 millones de coronas suecas (un millón de euros).

Makoto Kob
ayashi nació en 1944 en Nagoya, en Japón. Formado en la Universidad de su ciudad natal, es profesor emérito en la Organización de Investigación de Aceleradores de Alta Energía (KEK) de Tsukuba, en Japón. Por su parte, Toshihide Maskawa nació en 1940. Licenciado en la Universidad de Nagoya, es profesor emérito en el Instituto de Física Teorética (YITP) de la Universidad de Kioto. Ambos se repartirán la otra mitad del premio.








LA HISTORIA COMPLETA DEL UNIVERSO



Todo, espacio, tiempo y materia, nació en un "Big Bang", hace aproximadamente 13.700 millones de años. El Universo era entonces un lugar extraño, lo más extraño que podría ser. No había planetas, estrellas ni galaxias; sólo había una melé de partículas elementales; éstas llenaban el Universo. Además, todo el Universo era más pequeño que la punta de un alfiler y estaba increíblemente caliente. De repente empezó a expandirse, y a medida que se extendía a partir de este inicio extraño e inesperado, evolucionó hasta el Universo que vemos hoy.

La ciencia moderna es incapaz de describir o explicar algo que sucedió en los primeros 10-43 segundos después del Big Bang. Este intervalo, 10-43 segundos, se conoce como el tiempo de Planck, con el nombre del científico alemán Max Karl Ernst Planck. Él fue el primero en introducir la idea de que la energía podía considerarse no como un flujo continuo, sino como paquetes, o "cuantos", cada uno de ellos con una energía específica. La teoría cuántica está ahora en la base de gran parte de la física moderna: trata del Universo en las escalas más pequeñas y es ciertamente uno de los dos grandes logros de la ciencia teórica del siglo XX. El otro es la teoría de la relatividad general de Einstein, que trata de la física de escalas muy grandes -escalas astronómicas, de hecho.

Pese a que, en sus propios dominios, ambas teorías están extraordinariamente bien comprobadas por experimentos y observaciones, hay problemas importantes para reconciliar estas teorías entre sí. En particular, ellas tratan el tiempo de maneras fundamentalmente diferentes. Las teorías de Einstein tratan el tiempo como una coordenada; por lo tanto es continuo, y nos movemos suavemente de un instante al siguiente. En la teoría cuántica, sin embargo, el tiempo de Planck representa un límite fundamental: la menor unidad de tiempo de la que se puede decir que tiene significado, y la menor unidad que podría medirse alguna vez, siquiera en teoría. Incluso si construimos el reloj más preciso posible, lo veríamos saltar bastante erráticamente de un tiempo de Planck al siguiente.

Tratar de reconciliar estas dos visiones del tiempo en conflicto es uno de los mayores desafíos de la física del siglo XXI (recientemente intentado en la "teoría de cuerdas" y su pariente la "teoría de membranas"). Por ahora, en el Universo pequeño, caliente y denso que existía inmediatamente después del Big Bang, la física cuántica domina, y con ello empezamos nuestro estudio científico del Universo 10-43 segundos después del comienzo.

El Big Bang es una idea contraintuitiva. Nuestro sentido común parece mucho más inclinado a la idea de un Universo estático e infinito, y pese a todo hay buenas razones científicas para creer en este suceso singular. Si aceptamos el Big Bang, es posible rastrear la secuencia completa de sucesos desde el primer tiempo de Planck hasta el presente, donde nos encontramos en lo que Carl Sagan describió memorablemente como nuestro "punto azul pálido".

El principio del tiempo

Por lo tanto, retrocedamos hasta el mismo inicio del Universo, inmediatamente después del propio Big Bang. Es tentador imaginar que el Universo estalla de repente en un enorme océano de espacio, pero esto es completamente erróneo. La verdadera imagen del Big Bang es una en la que nacieron el espacio, la materia y, de forma crucial, el tiempo. El espacio no apareció de la "nada"; antes del momento de la creación no había "nada". El propio tiempo todavía no había empezado, y por ello ni siquiera tiene sentido hablar de un tiempo antes del Big Bang. Ni siquiera un Shakespeare o un Einstein podría explicar esto en lenguaje llano, ¡aunque una combinación de los dos podría ser útil!

Se sigue también que cuando observamos hoy el Universo no tiene sentido preguntar "dónde" sucedió el Big Bang. El espacio sólo nació con el propio Big Bang. Por ello, en aquellas primeras pocas fracciones de segundo, el Universo entero que vemos hoy estaba en una minúscula región, más pequeña que un núcleo atómico. El Big Bang sucedió "en todas partes", y no hubo ningún punto central.

Una bonita ilustración de ello se da en un famoso grabado de Escher, conocido de forma no muy romántica como División Espacial Cúbica. Imagínese en uno cualquiera de los cubos que marcan las uniones en este retículo, mientras todas y cada una de las barras que unen los cubos se expanden. Desde su perspectiva parecería que todo se está alejando de usted, y al principio parecería natural concluir que usted está en una posición especial: el centro de expansión. Pero una reflexión le permite darse cuenta de que la expansión parecería igual en cualquier lugar del retículo en el que usted estuviera; no hay un centro. La situación es muy similar en nuestro Universo; cada grupo de galaxias parece estar alejándose de nosotros, y pese a todo, los observadores que nos mirasen desde estas estrellas distantes verían la misma ilusión y presumiblemente concluirían que están en el centro de la expansión.

Otro problema concierne a la pregunta frecuentemente planteada, y a primera vista razonable, "¿qué tamaño tiene el Universo?". Aquí tenemos de nuevo un problema importante sobre el que parece haber dos respuestas posibles. O bien el Universo es de tamaño finito, o por el contrario no lo es. Si es finito, ¿qué hay fuera de él? La pregunta no tiene sentido; el propio espacio existe sólo dentro del Universo, y por lo tanto no hay literalmente "fuera". Por otra parte, decir que el Universo es infinito es decir realmente que su tamaño no es definible. No podemos explicar el infinito en lenguaje cotidiano, y tampoco podría hacerlo Albert Einstein (nosotros lo sabemos, ¡porque Patrick se lo preguntó!).

Recordemos también que tenemos que considerar el tiempo como una coordenada; en otras palabras, no podemos preguntar simplemente "¿qué tamaño tiene el Universo?", pues la respuesta cambiará con el tiempo. Podríamos preguntar "¿qué tamaño tiene el Universo ahora?" pero, como veremos más adelante, una consecuencia de la relatividad es que es imposible definir un único momento llamado "ahora" que tenga el mismo significado en todo el Universo.

Hablar de un Universo que tiene un tamaño concreto lleva inmediatamente a la idea de un límite. Si viajáramos suficientemente lejos, ¿toparíamos con una pared de ladrillo? La respuesta es no. El Universo es lo que los matemáticos llaman finito pero ilimitado. Una analogía útil es la de una hormiga arrastrándose por una bola. Viajando siempre en la misma dirección sobre esta superficie curva nunca llegará a dar con una barrera, y puede recorrer una distancia infinita. Esto sucede a pesar del tamaño finito de la bola, de lo que la hormiga será completamente inconsciente. Análogamente, si estuviéramos en una potente nave espacial en lo que percibimos que es una línea recta, nunca llegaríamos al borde del Universo, pero esto no significa que el Universo sea infinito; veremos más adelante que también el espacio puede considerarse curvo.

Así que limitémonos a preguntas que podamos responder científicamente, lo que quiere decir preguntas que podemos responder mediante comparación con la observación. Podemos decir con seguridad que el Universo observable (literalmente esa parte del Universo desde la que la luz puede habernos llegado potencialmente) es de tamaño finito porque, en nuestras mejores conjeturas actuales, el Universo tiene sólo 13.700 millones de años. Por lo tanto, el límite del Universo observable, desde donde la luz podría estar llegándonos, debe estar a 13.700 millones de años-luz de distancia, y expandiéndose a una velocidad de 1 año-luz por año. De hecho hay razones por las que nunca seremos capaces de ver hasta allí, como será evidente más adelante. Todo lo que podemos decir con seguridad sobre el tamaño del Universo es que debe ser mayor que la porción que podemos ver.

La escala del Universo

Por supuesto, decir que un objeto está a 13.700 millones de años-luz de distancia está muy bien, pero ¿podemos entender realmente la escala del Universo? Es posible apreciar plenamente la distancia entre, digamos, Londres y Nueva York, o incluso la distancia entre la Tierra y la Luna -aproximadamente 400.000 kilómetros-, que es aproximadamente diez veces la circunferencia de la Tierra, y muchas personas han recorrido una distancia mayor que ésta durante su vida. De hecho, varias líneas aéreas conceden privilegios a quienes han viajado más de un millón de kilómetros en su vida. Pero ¿cómo entiende usted realmente 150 millones de kilómetros, la distancia al Sol? Y cuando consideramos la estrella más cercana, a 4,2 años-luz (aproximadamente 40 billones de kilómetros), nos sentimos completamente incapaces... Las galaxias están enormemente más lejanas que esto: incluso las vecinas más próximas a la Vía Láctea, tales como la galaxia Andrómeda, están a más de 2 millones de años-luz.

En el otro extremo de la escala, visualizar el tamaño de un átomo, que no puede verse individualmente con ningún microscopio ordinario, es igualmente difícil. Se ha dicho que, a escala, un ser humano está a mitad de camino entre un átomo y una estrella. Es interesante que éste sea también el régimen en el que la física se hace más complicada; a escala atómica tenemos la física cuántica; a escala grande, la relatividad. Es entre estos extremos donde nuestra falta de comprensión de cómo combinar estas teorías se hace realmente manifiesta. El científico de Oxford Roger Penrose ha escrito con convicción sobre su creencia que, sea lo que sea lo que nos falta para nuestra comprensión de la física fundamental, nos falta también para la comprensión de nuestra consciencia. Estas ideas son importantes cuando uno considera lo que se han llegado a conocer como puntos de vista antrópicos, que se resumen mejor como la creencia en que el Universo debe ser como es para que podamos estar aquí y observarlo.

También es útil preguntar cuántos átomos hay en el Universo. Una estimación ha dado con un número total tan grande como 1079, o en otras palabras un 1 seguido de 79 ceros.

Tradicionalmente hemos visto los átomos como constituidos de tres partículas fundamentales: el protón (que lleva una unidad de carga eléctrica positiva), el neutrón (sin ninguna carga) y el mucho menos masivo electrón (que lleva una unidad de carga negativa). Dicho sea de paso, no es nada fácil definir lo que es la carga eléctrica en el nivel atómico. Bastará pensar en la carga como una propiedad que pueden tener las partículas, de la misma forma que tienen un tamaño y una masa. La carga se da siempre en porciones de tamaño fijo que llamamos carga unidad.

Clásicamente se considera que estas partículas se organizan como un sistema solar en miniatura, con los electrones en órbita en torno a un núcleo compuesto central, que contiene protones y neutrones. Este núcleo porta una carga eléctrica positiva, que está equilibrada exactamente con la carga combinada de los electrones orbitales. En nuestro Sistema Solar planetario, la fuerza de la gravedad mantiene a los planetas en sus órbitas alrededor del Sol central, pero en el átomo es la atracción entre el electrón cargado negativamente y el núcleo positivo la que mantiene a los electrones en sus órbitas.

De paso, deberíamos señalar que esta sencilla imagen puede explicar buena parte de la química básica; por ejemplo, por qué son los electrones externos de los átomos los que suelen estar involucrados en las reacciones químicas. Ellos están más alejados del núcleo, y por eso están menos firmemente sujetos por la fuerza atractiva. Por ello el átomo más simple, el de hidrógeno, tiene un único protón en su núcleo, y un electrón orbital. El átomo completo es así eléctricamente neutro: más uno sumado a menos uno da cero. Todos los átomos tienen el mismo número de protones que de electrones. Cada elemento tiene un único número de dichas partículas, conocido como número atómico. Por ejemplo, los átomos de helio tienen dos protones y dos electrones -un número atómico de dos- mientras que los átomos de carbono tienen un número atómico de seis. Los elementos pesados tienen grandes números de protones y electrones. El uranio, el elemento natural más pesado en la Tierra, tiene un número atómico de 92.

Esta visión del átomo, que veía los protones y electrones como bultos sólidos, dominaba a principios del siglo XX, pero las cosas son hoy en día mucho menos nítidas. Buena parte del extraño comportamiento de los sistemas extraordinariamente pequeños sólo puede explicarse ahora considerándolos hechos de ondas más que de partículas. Esta teoría se conoce como dualidad onda-partícula. Además, los experimentos han demostrado que mientras los electrones parecen ser realmente indivisibles, los protones y los neutrones no son de hecho fundamentales; pueden dividirse en partículas más pequeñas conocidas como quarks, que ahora se cree que son fundamentales. Nadie ha visto nunca un quark, pero sabemos que deben existir puesto que han sido detectados en aceleradores de partículas que se han construido para hacer chocar protones a velocidades increíblemente altas. En estos experimentos se ve que los protones se fracturan, y de ello deducen los científicos que no pueden ser fundamentales. La naturaleza aborrece un quark desnudo, de ahí que los quarks aparezcan siempre en pares o tríos solamente.

Las fuerzas de la naturaleza

La razón de esta propiedad de los quarks reside en una propiedad inusual de la fuerza que normalmente liga los quarks, conocida (no sin razón) como la fuerza nuclear fuerte. Es dominante a escalas muy pequeñas, y por eso es por lo que necesitamos aceleradores de partículas tan potentes para romper los protones. A diferencia de las fuerzas con las que estamos familiarizados a escalas mayores, tales como la gravedad o la atracción entre cargas eléctricas opuestas, la fuerza fuerte aumenta con la distancia. En otras palabras, si pudiéramos separar dos quarks encontraríamos que se atraen cada vez con más fuerza a medida que crece la distancia entre ellos. Finalmente, cuando los quarks se alejan, la energía utilizada para separarlos se hace tan grande que se generan dos quarks extra, convirtiéndose la energía en masa. De repente tenemos dos pares de quarks en lugar del quark individual que intentábamos aislar. Este proceso significa que ningún experimento produce nunca quarks individuales, y en el Universo cotidiano existen solamente como componentes de otras partículas, tales como protones y neutrones, cada una de las cualescontiene tres quarks.

A las enormes temperaturas del Universo inmediatamente después del Big Bang, los quarks tenían suficiente energía para pulular libres, y por ello, si entendemos la historia del Universo a las máximas escalas podemos llegar a entender más sobre las partículas que explican las escalas más pequeñas. La energía que poseía cada partícula en el Universo primitivo seguirá estando mucho más allá del alcance de nuestros aceleradores de partículas; ni siquiera un acelerador del tamaño del Sistema Solar sería capaz de producir partículas con esta enorme energía.

Es un hecho notable que nuestra investigación actual sobre lo muy pequeño, vía física de partículas, y a escalas más grandes, vía cosmología, están muy entrelazadas. Para entender todo el Universo dependemos de nuestra comprensión de las partículas fundamentales, y los mejores tests para nuestras teorías sobre ellas están en el Universo embrionario. Un "espacio caliente" lleno de estas partículas fundamentales altamente energéticas es la imagen más temprana que podemos evocar de nuestro Universo recién nacido.

Más grande es más frío

Desde el primer tiempo de Planck en adelante, este Universo inconcebiblemente pequeño e inconcebiblemente caliente empezó a expandirse y con ello también a enfriarse. El Universo era un océano de quarks, cada uno de los cuales tenía una enorme cantidad de energía, moviéndose a enorme velocidad. Como resultado, no podía haber átomos ni moléculas del tipo que conocemos hoy, porque éstas son estructuras complicadas, completamente incapaces de sobrevivir a la irrupción de muy altas temperaturas; los quarks eran simplemente demasiado energéticos para ser capturados y quedar confinados dentro de protones o neutrones. En lugar de ello, eran libres de pasearse por el Universo niño hasta que chocaban con sus vecinos. Además de quarks, esta primitiva sopa de partículas subatómicas contenía también antiquarks: gemelos idénticos pero con cargas eléctricas opuestas. Ahora se cree que cada partícula tiene su correspondiente antipartícula, idéntica en todos los aspectos salvo en su carga eléctrica, que es opuesta. La partícula de antimateria correspondiente a un electrón es un positrón, que lleva una carga positiva, pero por lo demás es exactamente similar al electrón. El concepto de antimateria es familiar por la ciencia ficción, en donde sirve de base a incontables motores estelares muy avanzados, todos los cuales están basados en el hecho de que una colisión entre una partícula y su antipartícula da como resultado la aniquilación de ambas y la liberación de mucha energía (esto ha sido verificado por experimentos). Cuando quiera que un quark se encontraba con un antiquark en el Universo primordial ambos desaparecían, liberando un destello de radiación. También ocurría el proceso inverso: una radiación de energía suficientemente alta (desde luego las energías encontradas en esta etapa primitiva de la evolución del Universo) podía producir de forma espontánea pares de partículas, cada par compuesto de una partícula y su antipartícula. El Universo en esta época estaba así compuesto enteramente de radiación que producía pares de partículas, que a su vez desaparecían cuando colisionaban entre sí, devolviendo su energía a la radiación de fondo.

A medida que el Universo seguía expandiéndose y enfriándose, después del primer microsegundo (sólo 10 millones de millones de millones de millones de millones de millones de tiempos de Planck), cuando la temperatura descendió por debajo de un valor crítico de unos 10 millones de millones de grados, los quarks se frenaron lo suficiente para que pudieran ser capturados por su atracción mutua (fuerza fuerte). Se juntaron racimos, cada uno de tres quarks, para formar nuestros familiares protones y neutrones (conocidos colectivamente como bariones), mientras que los antiquarks se juntaron para formar antiprotones y antineutrones (antibariones). Si el número de bariones y antibariones hubiera sido el mismo, el resultado más probable es que las colisiones entre ellos habrían producido una aniquilación completa. La energía dejada en la radiación se habría diluido a medida que el Universo se expandía, y por ello ya no se habrían creado nuevos pares de partículas. La materia en el Universo no habría sobrevivido hasta el presente.

Fue sólo el hecho de que había un desequilibrio muy ligero incorporado desde el principio lo que salvó a la materia, y ello nos permite estar aquí, preguntándonos lo que sucedió en estos tiempos remotos. Debido a razones que aún no entendemos, por cada 1.000 millones de antibariones había 1.000 millones y un bariones, de modo que cuando terminó el gran estallido casi todos los antibariones habían desaparecido, dejando tras ellos el residuo de protones y neutrones que forman los núcleos atómicos de hoy.

La conspiración cósmica

Volvamos por un momento al presente; consideremos dos galaxias, cada una de ellas a 9.000 millones de años-luz de nosotros, pero en direcciones opuestas vistas desde la Tierra. La distancia entre ellas es por lo tanto de 18.000 millones de años-luz. Ambas existirán en regiones del Universo que, hablando en general, parecen iguales en las escalas más grandes. Una puede estar en el corazón profundo de un cúmulo de galaxias, tal como nuestro cercano Cúmulo Virgo, mientras que la otra puede estar mucho más aislada. Y pese a todo, cerca de la primera habrá galaxias aisladas, y cerca de la segunda galaxia habrá inevitablemente un cúmulo galáctico. Cada región contendrá los mismos tipos de galaxias en la misma proporción, e incluso la temperatura local de la región será la misma en ambos casos.

Esto constituye un problema conocido como la "conspiración cósmica". El Universo tiene menos de 18.000 millones de años de edad (recordemos que la mejor estimación es de 13.700 millones de años), de modo que la luz no habría tenido tiempo suficiente para ir de una galaxia a otra, y la relatividad insiste en que la luz es la cosa más rápida en el Universo. Si la luz no ha tenido tiempo para atravesar el espacio entre las dos regiones, entonces nada más puede haberlo hecho, y por lo tanto nada podría haber pasado de la primera región a la segunda. Ninguna diferencia entre las regiones podría haber sido neutralizada, y por eso es sorprendente que el Universo parezca casi igual en cualquier dirección que miremos; vemos galaxias del mismo tipo, distribuidas prácticamente de la misma forma, y esto es lo que ha pasado a denominarse la "conspiración cósmica".

¿Por qué esto es un problema? ¿No parece natural que el Universo parezca igual en cualquier dirección que miremos? Quizá hay una ley aún desconocida, que gobierna la física del propio Big Bang, que garantiza que sólo pueden producirse universos que sean casi completamente uniformes. Sin embargo, no tenemos ningún indicio de ninguna física que pudiera predecir esto, y por ello debemos considerar al menos la posibilidad de que el Universo empezara con grandes diferencias de temperatura entre regiones diferentes, por ejemplo, un universo primitivo en el que una mitad está el doble de caliente que la otra mitad. ¿Cómo podría llevar esto al tipo de uniformidad que vemos hoy? No ha habido tiempo para que el calor fluya desde la región caliente a la región fría del Universo, y no hay siquiera tiempo para enviar un mensaje que viaje a la velocidad de la luz. En tales circunstancias, corregir este desequilibrio original parecería imposible, y pese a todo estas áreas ampliamente separadas e inconexas son, de hecho, similares.

Nuestras dos galaxias pueden estar alejadas ahora, pero cuando el Universo era muy joven también era mucho más pequeño y cuerpos en lados opuestos podrían haber estado en contacto e intercambiar calor, produciendo la uniformidad que vemos hoy. La pregunta ahora, por lo tanto, es qué tamaño tenía el Universo en estas etapas tempranas. Sorprendentemente esta pregunta parece tener una respuesta bastante simple.

Sólo una de las fuerzas que hemos mencionado hasta ahora puede actuar a distancias astronómicas y ésa es la gravedad, que por su propia naturaleza es una fuerza atractiva que tiende a juntar la materia. La gravedad sola frenaría la expansión respecto a su velocidad inicial. Podemos tratar de ir hacia atrás desde el presente para determinar cómo ha cambiado el tamaño del Universo con el tiempo y descubrimos que la conspiración cósmica sobrevive hasta el Universo primitivo. En otras palabras, el Universo nunca ha sido suficientemente pequeño para permitir que la luz vaya de un lado al otro, y por lo tanto nunca lo ha sido para permitir que las diferencias de temperatura se igualen. El escenario entero presupone que la gravedad es la única fuerza que afecta a la velocidad de expansión, y solamente si estamos preparados para abandonar esta idea podemos resolver el problema de la conspiración.

El loco edificio de la inflación

La solución más aceptada actualmente implica aumentar algo la complejidad de la teoría del Big Bang. La mayoría de los cosmólogos creen ahora que hubo un periodo extraordinariamente corto de rápida expansión, conocido como inflación, entre 10-35 y 10-32 segundos después del Big Bang, durante el cual el tamaño del Universo aumentó muchos miles de millones de veces. Al final del periodo inflacionario la expansión se redujo y se asentó en un ritmo relativamente estable.

Sin un periodo de inflación, las regiones del Universo que vemos en lados opuestos del cielo nunca habrían tenido tiempo de intercambiar calor ni asentarse en un cómodo equilibrio. La expansión rápida sugerida nos permite creer que el Universo era inicialmente mucho más pequeño, y pudo así alcanzar una temperatura uniforme antes de que empezara la aceleración. Cualesquiera pequeñas diferencias residuales serían entonces igualadas por el enorme aumento de escala. Esto se debe a que otra consecuencia de la inflación espectacularmente rápida es que la región del Universo que observamos es sólo una minúscula fracción del Universo entero. En otras palabras, sólo estamos mirando variaciones en nuestro entorno local, y éstas están abocadas a ser pequeñas. Para dar una analogía mucho más próxima a casa, la Tierra tal como la vemos presenta enormes variaciones en altura, desde la cima del Monte Everest al fondo de la fosa oceánica más profunda. La inflación consigue un efecto equivalente a ampliar la región del suelo que tiene usted bajo su dedo pulgar del pie hasta el tamaño del globo entero (o, de forma equivalente, contraernos hasta un tamaño mucho menor que el virus más pequeño). Las diferencias de altura que podemos alcanzar y explorar están entones limitadas a ser pequeñas; la inflación tiene exactamente la misma influencia sobre las fluctuaciones de temperatura en el Universo.

Pero ¿por qué el Universo niño debería experimentar un aumento tan extremo en la velocidad de expansión? Parece que hay necesidad de introducir una nueva fuerza que actúa en dirección contraria a la gravedad, y que puede ser responsable de la enorme aceleración. Los científicos han empezado a estudiar en detalle qué propiedades podría tener dicha fuerza y todavía no parece haber una explicación obvia. Hasta donde sabemos, no hay circunstancias concretas propias de la época inmediatamente anterior a la inflación, y la aparición y desaparición repentina de esta fuerza aceleradora parece así ser algo arbitraria, pero al menos nos permite tratar el problema de la "conspiración cósmica".

¿Hay otros problemas que nos pueda resolver la introducción de la inflación? Resulta que la inflación también puede explicar otras dos características del Universo que vemos hoy, que de otra forma son completamente inexplicables. Primero, según la teoría estándar de la física de partículas, un cierto tipo de partícula, conocido como un monopolo, debería aparecer ocasionalmente en los detectores. Pero el caso es que todavía no se ha detectado ninguno, y esto requiere una explicación. La teoría de la inflación nos permite argumentar que la concentración de estas partículas ha llegado a ser tan baja que nuestro fallo en detectarlas no puede sorprender. Digamos, a favor del argumento, que 100 millones de millones de estas partículas se crearon en el Big Bang; sería sorprendente que no hayamos conseguido detectar una sola. Pero si el mismo número de monopolos se crearon y dispersaron a lo largo de un universo que se ha hecho muchos miles de millones de veces más grande que antes de la inflación, sería perfectamente probable que no hubiera ninguna en todo el Universo visible. La velocidad de la inflación era tan abrumadora que, incluso en el corto tiempo durante el que actuó, produjo un Universo que era inconcebiblemente mayor que el predicho por el Big Bang convencional. La inflación proporciona una explicación para la ausencia de partículas: simplemente se han diluido.

Vida en un Universo plano

Hay un tercer pilar que soporta el edificio aparentemente loco de la inflación, y es quizá el más convincente de todos. Éste implica a la geometría del Universo. La mayoría de las personas están familiarizadas con la geometría de Euclides que aprendemos, a veces quizá a regañadientes, en la escuela. Nos han contado que los tres ángulos de un triángulo suman 180 grados. Sin embargo, no siempre es así; sobre la superficie de una esfera, por ejemplo, pueden sumar más de 180 grados. Consideremos una línea dibujada desde el Polo Norte hasta el ecuador, a lo largo del meridiano de Greenwich, y luego hacia el este a lo largo del ecuador, tras un giro de 90 grados. Si completamos el triángulo volviendo al polo a lo largo del meridiano que atraviesa Rusia, habremos dado otro giro de 90 grados. 90+90 = 180, y aún tendremos que sumar el ángulo en la parte superior, entre los dos meridianos. La geometría euclídea se aplica sólo en superficies planas.

¿Qué forma toma la geometría del Universo? Las cosas se complican porque estamos tratando con un espacio tetradimensional (las tres dimensiones espaciales familiares, más el tiempo) en lugar de una superficie bidimensional como antes. Consideremos las máximas escalas, e ignoremos distorsiones locales debidas a la materia. Hay un número enorme de geometrías posibles para el Universo, y pese a todo parece que nuestro Universo ha sido muy bien ajustado para seleccionar un tipo específico; las observaciones muestran (véase la radiación del Fondo Cósmico de Microondas en el Capítulo 2) que vivimos en lo que se conoce como un Universo "plano", uno en el que la geometría euclídea es válida incluso en las escalas más grandes. ¿Por qué debería ser así? Para conseguir un Universo plano, necesitamos tener exactamente la cantidad correcta de materia dentro del Universo, con un margen de error de unos pocos átomos. En otras palabras, si hubiera unos pocos átomos por exceso o por defecto estaríamos en un Universo con una geometría lejos de ser plana.

Una vez más nos enfrentamos a una observación que podría atribuirse a alguna característica de la física temprana que gobierna el propio Big Bang -y una vez más la inflación nos permite una explicación alternativa y más satisfactoria-. El argumento se basa, como antes, en el hecho de que la inflación proporciona un Universo mucho mayor que el que proporciona el simple Big Bang.

Consideremos una analogía tridimensional que nos ayude a pensar en cuatro dimensiones. Cualquiera que permanezca de pie en la parte superior de una bola de bolos descubrirá rápidamente que es una esfera, presumiblemente cuando él o ella se caiga. ¿Qué pasa con una esfera más grande, tal como la Tierra, sobre la que felizmente estamos cada día? Quizá no sea inmediatamente obvio que estamos sobre una superficie curva, aunque ciertamente es bastante fácil calcularlo. Contrariamente a la creencia popular, ya desde el tiempo de los antiguos griegos se sabía que la Tierra es una esfera (incluso consiguieron medir su diámetro) y la simple observación de un barco que desaparece en el horizonte ofrece una clave de que la superficie de la Tierra es curva. Imaginemos ahora que estamos en la superficie de una esfera varios billones de veces mayor que la Tierra. Todos nuestros experimentos indicarían que realmente estábamos en una superficie plana; la curvatura debida a la esfera sería simplemente demasiado pequeña para ser detectada -nuestro barco tardaría un tiempo inconcebiblemente largo en alcanzar el horizonte.

Después de la inflación
Un Universo que ha sufrido inflación es como esta última esfera. Puesto que se ha inflado hasta un tamaño tan enorme, nuestro Universo observable es sólo una proporción minúscula de él y sólo podemos medir sus propiedades locales. Podemos concluir, correctamente, que el Universo que podemos ver tiene una geometría plana. En un Universo tan inmenso no podemos saber nada sobre su geometría más allá del alcance de nuestras observaciones. Independientemente de cuál de las muchas geometrías posibles tenga el Universo, la inflación nos dice por qué nuestras medidas indican que es plano.

Estos tres problemas están claramente resueltos por la idea de la inflación, aunque al precio de introducir la aceleración temporal y misteriosa que sigue siendo pobremente entendida. Quizá cuando lleguemos a una comprensión mayor del propio Big Bang tendremos una respuesta alternativa, pero por ahora la inflación parece ser una explicación tan buena como cualquiera.

Tras el final de la inflación, el Universo siguió expandiéndose y enfriándose a un ritmo menor. Alrededor de tres segundos después del Big Bang, la temperatura había caído hasta aproximadamente 1.000 millones de grados Kelvin. Alrededor de tres cuartas partes del material en el Universo era hidrógeno, y casi todo lo demás era helio (recordemos que el átomo de helio tiene dos electrones que orbitan en torno a un núcleo compuesto de dos protones y dos neutrones).

El Big Bang predice que por cada diez protones, o núcleos de hidrógeno, producidos había un núcleo de helio. Hoy día los átomos de hidrógeno aún superan a los de helio por diez a uno. Esto ofrece quizá el test más simple, y pese a todo poderoso, de la teoría del Big Bang. Las estrellas convierten hidrógeno en helio, y por ello esperaríamos que la proporción cambie sólo a favor del helio. Si observáramos un único objeto, en cualquier parte del Universo, en el que hubiera menos helio del esperado tendríamos que reconsiderar por completo nuestra teoría. Nunca se ha hecho tal observación.

De modo que ¿creemos en el Big Bang? Su principal competidor, la teoría del estado estacionario, parece ahora finalmente muerta. Por ahora, el Big Bang se mantiene solo en el escenario. Debemos recordar que es imposible probar una teoría, y todo lo que podemos esperar es asegurar que es compatible con toda la evidencia disponible. El Big Bang con inflación parece satisfacer este requisito. Sin embargo, en cualquier momento un nuevo descubrimiento podría revelar un fallo fatal en la teoría. Hasta que un nuevo Newton u otro Einstein produzca algo mejor, debemos vivir con el Big Bang.

ENCONTRADO EL NÚMERO PRIMO DE CASI 13 MILLONES DE DIGITOS


Su descubridor gana 100 mil dólares por usar un protector de pantalla especial

En las últimas semanas se han batido dos récords consecutivos en la búsqueda de los números primos de Mersenne, cuya lista tiene 2.500 años de antigüedad. El número 45 de esta lista tiene ya casi 13 millones de dígitos y el 46, descubierto días después, 11 millones de dígitos. El récord se ha batido con un simple programa que utiliza casi la misma fracción de memoria que el protector de pantalla de un ordenador. Por Omar Rojas y Reinout Quispel.
Si eres una de esas personas que pasa horas frente a la computadora, ¿has llegado a aburrirte de mirar al mismo protector de pantalla con partículas en movimiento que van de un lado a otro del monitor o curvas poligonales que forman figuras variadas?

¿Me creerías si te dijera que por instalar un simple programa que tan solo utiliza una fracción de la memoria de tu computadora, casi la misma cantidad que usa tu protector de pantalla, podrías ganar cien mil dólares americanos?

Suena a estafa, una de esas bastante difundidas por Internet, lo admitimos. Pero a veces, con las herramientas adecuadas a nuestra disposición, un poco de suerte y mucha paciencia, las posibilidades pueden volcarse en realidades.

El año pasado, Edson Smith --encargado de computación del Departamento de Matemáticas de UCLA (Universidad de California, Los Angeles) durante los últimos 10 años--, decidió reemplazar los protectores de pantalla de los laboratorios con el software gratuito Prime95.

13 millones de dígitos

Este programa se comunica a través de Internet con el servidor PrimeNet y trata de encontrar números primos (números que son divisibles únicamente por si mismos y por 1) de un tipo especial, llamados primos de Mersenne, que son de la forma 2^p-1, donde p es un número primo.

Y voilà, el 23 de agosto, en vez de partículas o polígonos, una computadora emitió un sonido que notificaba el descubrimiento del número primo 2^43,112,609-1, un número de casi 13 millones de dígitos, el cual le hace merecedor del premio de 100.000 dólares que la Fundación de Frontera Electrónica ofrecía al descubridor del primer número primo de al menos 10 millones de dígitos.

El número descubierto por Smith también se coloca en el lugar 45 --en orden de magnitud y fecha de descubrimiento-- de la lista de los récords de los números primos de Mersenne, establecida hace unos 2.500 años. ¡Nada mal por un simple reemplazo de los protectores de pantalla!

11 millones de dígitos

Como pasa a menudo con los grandes descubrimientos y con casi todos los aspectos de la evolución del conocimiento, como ya los enfatizaba la sincronicidad de Jung, el 46º. primo de Mersenne (2^37156667 - 1 de casi 11 millones de dígitos fue descubierto un par de semanas después, el 6 de septiembre, por Hans-Michael Elvenich, en un poblado cerca de Colonia, Alemania. Se lleva el récord pero no el dinero. ¡Lástima!

Sin embargo, aún hay esperanza. Como dijo George Woltman, fundador de GIMPS (Gran Búsqueda por Internet de primos de Mersenne, por sus siglas en inglés) y creador del software Prime95, en un comunicado de prensa el pasado 16 de septiembre: Nuestro proyecto de investigación nos brindará pronto la oportunidad de alcanzar el siguiente desafío, el premio de los $150,000 dólares por un inmensamente más difícil primo de 100 millones de dígitos.

Y claro, también está el premio de 250.000 dólares al que encuentre el primer número primo de 1.000 millones de dígitos. ¿Valdrá la pena reemplazar el protector de pantalla habitual por este programa especial? Quizás con algo de suerte, una computadora potente y mucha paciencia... quizás.

PELIGRAN ASTRONAUTAS POR FALTA DE CAMPO MAGNÉTICO


Expertos rusos de la Universidad estatal Tomsk han realizado un estudio para comprobar lo que sucede en nuestro organismo cuando se carece del campo magnético terrestre. Y los resultados no son nada buenos, ya que su ausencia podría provocar que los astronautas desarrollen trastornos mentales durante los vuelos espaciales, en particular en expediciones a Marte.


Los experimentos fueron realizados con 12 ratas, en una unidad especial donde el campo magnético terrestre fue reducido a un milésimo de su fuerza durante 25 días. Los animales perdieron habilidades sociales, tenían problemas con la memoria y experimentaron cambios en sus órganos internos, a veces, volvían a examinar el entorno como si no lo conociesen.

Según los investigadores, el campo magnético terrestre afectaría a todos los organismos vivos. De hecho, ciertas catástrofes, como por ejemplo la extinción de los dinosaurios pudieron estar conectadas a la desaparición del campo magnético.

En las naves espaciales viajan a altitudes relativamente bajas, pero donde el campo magnético se encuentra reducido en cerca de 20 por ciento respecto a la superficie de la Tierra. Como prevención, los científicos proponen crearlo de manera artificial en las naves para prevenir trastornos mentales.

EFECTO PAULI


El llamado efecto Pauli se refiere a las aparentemente misteriosas averías de los equipos técnicos, en presencia de determinadas personas, sobre todo los físicos teóricos. Fue bautizado con el nombre del físico teórico austriaco Wolfgang Pauli, en su honor, ya que en su presencia o cercanía, con frecuencia se averiaban los equipos.

El efecto Pauli no debe confundirse con el principio de exclusión de Pauli, que es un tipo de fenómeno físico.

Desde el siglo XX, los trabajos de investigación de la física se han dividido entre teóricos y experimentadores (véase el método científico). Sólo unos pocos físicos, como Fermi, han tenido éxito en ambos papeles. Al carecer de habilidad y experiencia en trabajos experimentales, muchos teóricos se han ganado una reputación de romper accidentalmente el equipo experimental. Pauli fue excepcional en este sentido: se dijo que era tan buen teórico que cualquier experimento se autodestruía, simplemente debido a su presencia. Por temor al efecto Pauli, se cuenta que el físico experimental alemán-americano Otto Stern prohibió acercarse a Pauli a su laboratorio, a pesar de su amistad.

Durante un incidente ocurrido en un laboratorio de física en la Universidad de Göttingen, un costoso dispositivo de medición, sin motivo aparente, de repente dejó de funcionar. El jefe del grupo de investigación llegó a la conclusión, de que habían sido víctimas del efecto Pauli, pero alguien respondió que Pauli se dirigía en ese momento a Zúrich, así que no era posible que fuese por él. Sin embargo, cuando esta historia fue contada a Pauli, él recordó que en ese momento estaba en Göttingen en una estación de ferrocarril a la espera de tomar un tren. Este incidente fue relatado magistralmente por George Gamow en su libro "Biografía de la Física": “Un hecho totalmente enigmático, que en un principio no parecía estar conectado para nada con la presencia de Pauli, ocurrió cierta vez en el laboratorio del profesor J. Franck, en Göttingen. el laboratorio del profesor J. Franck, en Göttingen. Una tarde, apenas comenzadas las tareas, un complicado aparato destinado al estudio de los fenómenos atómicos se estropeó totalmente, sin razón aparente alguna. Pasado el mal rato, Franck escribió a propósito de esto una carta humorística a la casa de Pauli en Zurich y, tras cierto retraso, recibió una respuesta, pero el sobre mostraba estampillas de franqueo danesas. En ella Pauli le afirmaba que se había ido a visitar a Bohr y que, más o menos para la hora del desastre en el laboratorio de Franck, su tren había estado detenido, por pocos minutos, en la estación de Ferrocarril de Göttingen.”

El efecto Pauli, en caso de ser real, sería clasificado como un fenómeno "macro-psicocinético" . Wolfgang Pauli, estaba convencido (según su biógrafo Enz) de que el efecto que lleva su nombre era real. Markus Fierz, un colega cercano, dijo que "Pauli cree ciertamente en la existencia de este efecto".[1] Como Pauli consideraba la parapsicología como un campo de investigación serio, esto encajaría con su pensamiento científico. En febrero de 1950, cuando fue de visita a la Universidad de Princeton, el ciclotrón se incendió, y se preguntó a sí mismo si esta "travesura" pertenecería al misterioso efecto Pauli, que lleva su nombre.[2