Una fórmula matemática permite crear agujeros de gusano electromagnéticos
Publicado por gabriel1682010 en 20:57Científicos norteamericanos han ideado una fórmula matemática que permite, en teoría, construir con metamateriales un túnel electromagnético invisible que, al igual que el “agujero de gusano” descrito por la física, es capaz de anular el espacio entre dos puntos. La fórmula matemática se basa en una anterior concebida para posibilitar la invisibilidad de las radiaciones de microondas, pero esta nueva versión valdría para todas las frecuencias de ondas electromagnéticas, según sus creadores. Aunque todavía no existen los metamateriales necesarios para fabricar este túnel electromagnético, en caso de que finalmente
pudiera desarrollarse sus aplicaciones rozarían la ciencia ficción.
Con materiales compuestos
Matemáticas más complejas
Investigadores de la Universidad de St. Andrews han realizado un sorprendente descubrimiento usando rayos de luz que pueden viajar a través de ángulos.
Los académicos han desarrollado una idea de partículas en movimiento dentro de rayos de luz que les permite curvarlos en lugar de ir a lo largo de una línea recta basándose en trabajos del área de manipulación óptica.
El Profesor Kishan Dholakia de la Escuela de Física y Astronomía comentó que, “La física nos guarda muchas sorpresas; nuestra comprensión de cómo se mueve y comporta la luz se ve retada por tales rayos y es apasionante verlos moverse en un área interdisciplinar - ¡la luz nos ha lanzado una bola curva!
“Un rayo de luz estándar se dispersa conforme viaja debido a un efecto conocido como difracción. Toma un puntero láser – debería tener 100km de anchura para que este luz pudiese alcanzar la Luna.
“Nuestra investigación ha demostrado que ciertos rayos de luz no se difractan ni dispersan – viajan alrededor de ángulos y propulsan partículas para sortear esquinas. Este es un nuevo descubrimiento en el fenómeno de las partículas en movimiento”.
Hace 30 años los científicos encontraron que el rayo Airy, nombrado así por el famoso astrónomo británico Sir George Airy, tenía un paralelo matemático en la óptica. Recientemente, se descubrió que el rayo en realidad se “dobla” o curva conforme se mueve a través del espacio no como un puntero láser, por ejemplo.
El equipo de St. Andrews ahora ha llevado las cosas mucho más allá utilizando esta inusual propiedad de curvatura de los rayos Airy para enviar partículas literalmente alrededor de curvas y ángulos, barriendo o “limpiando” de partículas una cámara de muestras.
El miembro del equipo Joerg Baumgartl dijo, “El rayo Airy nos permite limpiar la cámara de muestras sin mover los campos de luz: esencialmente funciona como una pequeña máquina de nieve para partículas de vidrio microscópicas e incluso células. Podría tener grandes aplicaciones en la ingeniería de microfluidos y biología celular”.
Los hallazgos de Joerg Baumgartl, Michael Mazilu y Kishan Dholakia en la Escuela de Física y Astronomía se publicaron en la última edición de la revista Nature Photonics.
El equipo está ahora explorando un número de nuevas avenidas con estos campos de luz incluyendo la ordenación de intrigantes nuevas partículas así como posibles métodos de separación de células elegidas de entre una población dada.
“Este rayo demuestra un maravilloso ejemplo de cómo un elegante y tal vez oscuro descubrimiento matemático tiene una poderosa analogía en los rayos láser y se convierte en nuevas aplicaciones para la ciencia”, dijo Michael Mazilu.
Matemáticos demuestran que los agujeros de gusano son posibles
Publicado por gabriel1682010 en 20:37Según Greenleaf, la tecnología a la que llegará el hombre será capaz de posibilitar traslados de esta manera, instroduciendo un objeto en una boca del túnel haciendolo desaparecer y viendo como reaparece en la otra boca del túnel.
La tecnología actual ya ha conseguido hacer invisibles objetos sólo a la radiación de microondas, pero esta teoría matemática permite la creación de un agujero de gusano electromagnético para cualquier longitud de onda, en base al cual, Greenleaf y sus colaboradores proponen una innumerable cantidad de aplicaciones.
Para crear este tipo de tecnología, Greenleaf y su equipo se basan en la Matemática Teórica para diseñar un dispositivo que guíe las ondas electromagnéticas de una manera aprovechable. Los investigadores podrán entonces utilizar estos avances para crear estructuras debidamente tratadas, formadas por los llamados metamateriales, para curvar la luz en sus proximidades.
El año pasado, David R. Smith, profesor e Ingeniería Electrónica e Informática en la Duke’s Pratt School, diseñó junto con sus colaboradores de un dispositivo invisible en forma de disco que permitía a las microondas pasar a su alrededor. Greenleaf ha empleado una geometría más elaborada para establecer exactamente cuáles son las propiedades necesarias para crear el metamaterial que nos dé paso a la obtención el efecto de “túnel invisible”.
En el caso de que dicho agujero de gusano operase con objetos de nuestra vida cotidiana, es decir, franjas visibles del espectro electromagnético, si el observador mirase desde uno de los extremos, vería una versión distorsionada de lo que está en el otro extremo, de acuerdo con los resultados que arrojan las simulaciones efectuadas por Greenleaf y su gente. Dependiendo de la longitud del túnel, y de la manera en la que la luz rebote dentro del mismo, el espectador podría ver una realidad distorsionada o simplemente un indescifrable remolino de luces y formas.
El equipo de investigadores ha sugerido también una utilización para el agujero de gusano electromagnético propia de películas de ciencia ficción. Si los metamateriales que conformasen la estructura exterior del agujero fuesen capaces de desviar luces correspondientes a cualquier longitud de onda, podríamos usar los túneles para crear una televisión de 3D. Imaginando cientos de miles de agujeros de gusano distribuídos a lo largo, ancho y alto de un espacio tridimensional, rápidamente se nos viene al pensamiento lo que podríamos obtener. Dichos túneles serían invisibles, a la par que nos podrían permitir ver qué se cuece al otro extremo del agujero. Sería algo así como una gran cantidad de píxeles flotando en el aire. De este modo, podríamos sentarnos en el sillon, ativar la televisión 3D y disfrutar de unas placenteras vistas de la Tierra desde nuestro satélite, por poner solamente un ejemplo.
En 1911 se creía que los átomos estaban compuestos por una esfera con carga positiva repartida uniformemente por todo su volumen, y que dentro de ésta se encontraban unas pequeñas partículas, llamadas electrones, con carga negativa y una masa muy pequeña. También se conocía que el tamaño de los átomos debía de ser del orden de un angstrom (10-10 metros, una diez mil millonésima parte del metro).
Entonces, un experimento que se les ocurrió hacer para comprobar dicho modelo del atomo, conocido como modelo de Thomson, a Geiger y a Marsden (a sugerencia de Rutherford), fue lanzar partículas alpha (partículas que tienen carga positiva) contra una fina lámina de oro.
¿Qué debería ocurrir?
Dado que se lanzaban partículas con carga positiva y con una masa mucho mayor a los electrones, deberían ser atraídas por dichos electrones, a la vez que serían repelidas por la carga positiva del átomo. Debido a que la carga positiva del átomo estaba difusa por todo el volumen de la esfera, esta carga no debería interferir demasiado. Y como la masa de las partículas alfa era mucho mayor a la de los electrones, la fuerza que ejercían los electrones debería de desviar un ángulo pequeño a las partículas, obteniendo que éstas se dispersaban ligeramente respecto de su dirección inicial.
¿Qué se observó?
Lo que realmente se observó fue que un gran número de las partículas lanzadas se desviaba un pequeño ángulo, lo que cumplía las previsiones.
Sin embargo, también se observó que varias partículas eran repelidas unos ángulos enormes, llegando algunas incluso a “dar marcha atrás” y salir en dirección contraria a donde se estaban lanzando.
Esto, para la idea que se tenía acerca del átomo, era tan impresionante e imprevisible que, en palabras del propio Rutherford, era igual a si se disparaba una bala contra una hoja de papel y ésta rebotase.
Conclusiones y nuevo modelo
Por lo tanto, la única salida posible fue que el modelo de Thomson era erróneo, y la carga positiva del átomo se debería concentrar en una esfera (el núcleo) de pequeño diámetro en el centro de éste.
Con esto, se tenía que si las partículas pasaban a una distancia suficiente, se obtenía un comportamiento similar al modelo de Thomson. Mientras que si las partículas se acercaban de frente al núcleo, éstas deberían ser repelidas hacia atrás, que era exactamente lo que ocurría.
A este modelo se le llamó modelo de Rutherford por ser él quien lo enunció, y consiguió traer de nuevo la paz a la física, con una teoría consistente con la experiencia, aunque por muy poco tiempo…
PRIMERA PARTE
Así que en cierto modo, a todos nos sorprendió cuando los físicos dijeron que el universo se construyó en base a una ruptura de la simetría.
La creación no fue un suceso equilibrado y calmado, afirman. Esencialmente se trató de un asunto asimétrico.
De haber sido simétricas las cosas durante el Big Bang, hace 13.700 millones de años, se habrían formado cantidades iguales de materia y antimateria, como cuando uno excava un agujero en el suelo y observa que el volumen del hoyo es igual al de la tierra desalojada.
El problema es que la materia y la antimateria son enconados rivales.
Cuando una partícula de materia colisiona con su colega de carga opuesta, los dos se aniquilan entre si en una explosión de energía. Por usar de nuevo la imagen del agujero, el barro rellenaría el hoyo excavado.
Pero algo sucedió en la agitada sopa de partículas primarias del instante posterior al Big Bang. La materia le ganó la mano a la antimateria.
Gracias a este exceso de materia, tenemos las galaxias, las estrellas, la Tierra y toda la vida que hay sobre ella. Sin la consecución de esta misteriosa victoria, no estaríamos aquí.
La explicación de este enigma se encuentra en el corazón del trabajo que ha llevado a dos japoneses y a un estadounidense a ganar el Premio Nobel de Física de este año.
Sus logros, a la hora de explorar la violación de la simetría, fortalecieron y ampliaron el modelo conceptual de fuerzas y partículas fundamentales, tal y como el comité del Premio Nobel comenta en su nota de prensa.
“Cada partícula de materia posee un opositor, la partícula de antimateria”, comenta Etienne Auge, antiguo director del Instituto Nacional de Física Nuclear y Física de Partículas (IN2P3).
“Lo raro, no obstante, es que vivamos en un mundo que consista casi enteramente en materia”.
Yoichiro Nambu de los Estados Unidos, ganó la mitad del galardón por sus teorías (desarrolladas en la década de 1960) sobre “ruptura espontánea de la simetría”.
Su trabajo apuntaló la noción de que poco después de que el universo comenzara a enfriarse tras el Big Bang, surgió una única superfuerza que dio origen a tres de las cuatro fuerzas de la naturaleza conocidas hoy en día.
Estas son la fuerza nuclear fuerte, la fuerza nuclear débil y la fuerza electromagnética, las cuales actúan, a través de partículas mensajeras, sobre el bestiario de partículas indivisibles que conforman la materia.
Los otros dos laureados, Makoto Kobayashi y Toshihide Maskawa de Japón, demostraron que en ciertas condiciones, la antimateria no obedece las mismas reglas que la materia.
Descubrir la anomalía, “fue un poco como sostener un libro y mirarlo a través de un espejo, para darse cuenta entonces de que en lugar de ver la escritura invertida, se ve correctamente”, comenta Philip Diamond del Instituto Británico de Física.
Esta ruptura en la simetría solo podría explicarse por la presencia de tres familias de partículas conocidas como quarks, sugirieron Kobayashi y Maskawa. Casi tres años más tarde, su suposición se vio confirmada experimentalmente.
Aún quedan dos cosas pendientes en el Modelo Estándar, el vehículo conceptual en que se expresa a día de hoy la física de partículas.
La primera es la explicación del modo en que las partículas adquieren masa, y la segunda es una explicación para la fuerza de la gravedad.
La explicación para la masa podría venir del Bosón de Higgs, propuesta como un campo omnipresente y pegajoso que interactúa con otras partículas.
El “Higgs” es famoso por ser el objeto de deseo del recién inaugurado Gran Colisionador de Hadrones (LHC), el enorme acelerador de partículas ubicado en Ginebra.
Y en cuanto a la gravedad, una de las ideas propone la existencia de una partícula llamada gravitón que transporta la fuerza.
¿Qué provoca la gravedad? Tal y como explicó el comité del Nobel ayer, “ese es el reto colosal al que se enfrentan los físicos en la actualidad”.
Han sido galardonados por descubrir el origen de la ruptura de la simetría en la física de partículas
La Real Academia Sueca de las Ciencias ha concedido el Premio Nobel de Física 2008 al estadounidense de origen japonés Yoichiro Nambu "por el descubrimiento del mecanismo de ruptura espontánea de simetría en la física de partículas", y a los japoneses Makoto Kobayashi y Toshihide Maskawa por "el descubrimiento del origen de la ruptura de simetría que predice la existencia de al menos tres familias de quarks en la naturaleza".
Makoto Kobayashi nació en 1944 en Nagoya, en Japón. Formado en la Universidad de su ciudad natal, es profesor emérito en la Organización de Investigación de Aceleradores de Alta Energía (KEK) de Tsukuba, en Japón. Por su parte, Toshihide Maskawa nació en 1940. Licenciado en la Universidad de Nagoya, es profesor emérito en el Instituto de Física Teorética (YITP) de la Universidad de Kioto. Ambos se repartirán la otra mitad del premio.
La ciencia moderna es incapaz de describir o explicar algo que sucedió en los primeros 10-43 segundos después del Big Bang. Este intervalo, 10-43 segundos, se conoce como el tiempo de Planck, con el nombre del científico alemán Max Karl Ernst Planck. Él fue el primero en introducir la idea de que la energía podía considerarse no como un flujo continuo, sino como paquetes, o "cuantos", cada uno de ellos con una energía específica. La teoría cuántica está ahora en la base de gran parte de la física moderna: trata del Universo en las escalas más pequeñas y es ciertamente uno de los dos grandes logros de la ciencia teórica del siglo XX. El otro es la teoría de la relatividad general de Einstein, que trata de la física de escalas muy grandes -escalas astronómicas, de hecho.
Pese a que, en sus propios dominios, ambas teorías están extraordinariamente bien comprobadas por experimentos y observaciones, hay problemas importantes para reconciliar estas teorías entre sí. En particular, ellas tratan el tiempo de maneras fundamentalmente diferentes. Las teorías de Einstein tratan el tiempo como una coordenada; por lo tanto es continuo, y nos movemos suavemente de un instante al siguiente. En la teoría cuántica, sin embargo, el tiempo de Planck representa un límite fundamental: la menor unidad de tiempo de la que se puede decir que tiene significado, y la menor unidad que podría medirse alguna vez, siquiera en teoría. Incluso si construimos el reloj más preciso posible, lo veríamos saltar bastante erráticamente de un tiempo de Planck al siguiente.
Tratar de reconciliar estas dos visiones del tiempo en conflicto es uno de los mayores desafíos de la física del siglo XXI (recientemente intentado en la "teoría de cuerdas" y su pariente la "teoría de membranas"). Por ahora, en el Universo pequeño, caliente y denso que existía inmediatamente después del Big Bang, la física cuántica domina, y con ello empezamos nuestro estudio científico del Universo 10-43 segundos después del comienzo.
El Big Bang es una idea contraintuitiva. Nuestro sentido común parece mucho más inclinado a la idea de un Universo estático e infinito, y pese a todo hay buenas razones científicas para creer en este suceso singular. Si aceptamos el Big Bang, es posible rastrear la secuencia completa de sucesos desde el primer tiempo de Planck hasta el presente, donde nos encontramos en lo que Carl Sagan describió memorablemente como nuestro "punto azul pálido".
El principio del tiempo
Por lo tanto, retrocedamos hasta el mismo inicio del Universo, inmediatamente después del propio Big Bang. Es tentador imaginar que el Universo estalla de repente en un enorme océano de espacio, pero esto es completamente erróneo. La verdadera imagen del Big Bang es una en la que nacieron el espacio, la materia y, de forma crucial, el tiempo. El espacio no apareció de la "nada"; antes del momento de la creación no había "nada". El propio tiempo todavía no había empezado, y por ello ni siquiera tiene sentido hablar de un tiempo antes del Big Bang. Ni siquiera un Shakespeare o un Einstein podría explicar esto en lenguaje llano, ¡aunque una combinación de los dos podría ser útil!
Se sigue también que cuando observamos hoy el Universo no tiene sentido preguntar "dónde" sucedió el Big Bang. El espacio sólo nació con el propio Big Bang. Por ello, en aquellas primeras pocas fracciones de segundo, el Universo entero que vemos hoy estaba en una minúscula región, más pequeña que un núcleo atómico. El Big Bang sucedió "en todas partes", y no hubo ningún punto central.
Una bonita ilustración de ello se da en un famoso grabado de Escher, conocido de forma no muy romántica como División Espacial Cúbica. Imagínese en uno cualquiera de los cubos que marcan las uniones en este retículo, mientras todas y cada una de las barras que unen los cubos se expanden. Desde su perspectiva parecería que todo se está alejando de usted, y al principio parecería natural concluir que usted está en una posición especial: el centro de expansión. Pero una reflexión le permite darse cuenta de que la expansión parecería igual en cualquier lugar del retículo en el que usted estuviera; no hay un centro. La situación es muy similar en nuestro Universo; cada grupo de galaxias parece estar alejándose de nosotros, y pese a todo, los observadores que nos mirasen desde estas estrellas distantes verían la misma ilusión y presumiblemente concluirían que están en el centro de la expansión.
Otro problema concierne a la pregunta frecuentemente planteada, y a primera vista razonable, "¿qué tamaño tiene el Universo?". Aquí tenemos de nuevo un problema importante sobre el que parece haber dos respuestas posibles. O bien el Universo es de tamaño finito, o por el contrario no lo es. Si es finito, ¿qué hay fuera de él? La pregunta no tiene sentido; el propio espacio existe sólo dentro del Universo, y por lo tanto no hay literalmente "fuera". Por otra parte, decir que el Universo es infinito es decir realmente que su tamaño no es definible. No podemos explicar el infinito en lenguaje cotidiano, y tampoco podría hacerlo Albert Einstein (nosotros lo sabemos, ¡porque Patrick se lo preguntó!).
Recordemos también que tenemos que considerar el tiempo como una coordenada; en otras palabras, no podemos preguntar simplemente "¿qué tamaño tiene el Universo?", pues la respuesta cambiará con el tiempo. Podríamos preguntar "¿qué tamaño tiene el Universo ahora?" pero, como veremos más adelante, una consecuencia de la relatividad es que es imposible definir un único momento llamado "ahora" que tenga el mismo significado en todo el Universo.
Hablar de un Universo que tiene un tamaño concreto lleva inmediatamente a la idea de un límite. Si viajáramos suficientemente lejos, ¿toparíamos con una pared de ladrillo? La respuesta es no. El Universo es lo que los matemáticos llaman finito pero ilimitado. Una analogía útil es la de una hormiga arrastrándose por una bola. Viajando siempre en la misma dirección sobre esta superficie curva nunca llegará a dar con una barrera, y puede recorrer una distancia infinita. Esto sucede a pesar del tamaño finito de la bola, de lo que la hormiga será completamente inconsciente. Análogamente, si estuviéramos en una potente nave espacial en lo que percibimos que es una línea recta, nunca llegaríamos al borde del Universo, pero esto no significa que el Universo sea infinito; veremos más adelante que también el espacio puede considerarse curvo.
Así que limitémonos a preguntas que podamos responder científicamente, lo que quiere decir preguntas que podemos responder mediante comparación con la observación. Podemos decir con seguridad que el Universo observable (literalmente esa parte del Universo desde la que la luz puede habernos llegado potencialmente) es de tamaño finito porque, en nuestras mejores conjeturas actuales, el Universo tiene sólo 13.700 millones de años. Por lo tanto, el límite del Universo observable, desde donde la luz podría estar llegándonos, debe estar a 13.700 millones de años-luz de distancia, y expandiéndose a una velocidad de 1 año-luz por año. De hecho hay razones por las que nunca seremos capaces de ver hasta allí, como será evidente más adelante. Todo lo que podemos decir con seguridad sobre el tamaño del Universo es que debe ser mayor que la porción que podemos ver.
La escala del Universo
Por supuesto, decir que un objeto está a 13.700 millones de años-luz de distancia está muy bien, pero ¿podemos entender realmente la escala del Universo? Es posible apreciar plenamente la distancia entre, digamos, Londres y Nueva York, o incluso la distancia entre la Tierra y la Luna -aproximadamente 400.000 kilómetros-, que es aproximadamente diez veces la circunferencia de la Tierra, y muchas personas han recorrido una distancia mayor que ésta durante su vida. De hecho, varias líneas aéreas conceden privilegios a quienes han viajado más de un millón de kilómetros en su vida. Pero ¿cómo entiende usted realmente 150 millones de kilómetros, la distancia al Sol? Y cuando consideramos la estrella más cercana, a 4,2 años-luz (aproximadamente 40 billones de kilómetros), nos sentimos completamente incapaces... Las galaxias están enormemente más lejanas que esto: incluso las vecinas más próximas a la Vía Láctea, tales como la galaxia Andrómeda, están a más de 2 millones de años-luz.
En el otro extremo de la escala, visualizar el tamaño de un átomo, que no puede verse individualmente con ningún microscopio ordinario, es igualmente difícil. Se ha dicho que, a escala, un ser humano está a mitad de camino entre un átomo y una estrella. Es interesante que éste sea también el régimen en el que la física se hace más complicada; a escala atómica tenemos la física cuántica; a escala grande, la relatividad. Es entre estos extremos donde nuestra falta de comprensión de cómo combinar estas teorías se hace realmente manifiesta. El científico de Oxford Roger Penrose ha escrito con convicción sobre su creencia que, sea lo que sea lo que nos falta para nuestra comprensión de la física fundamental, nos falta también para la comprensión de nuestra consciencia. Estas ideas son importantes cuando uno considera lo que se han llegado a conocer como puntos de vista antrópicos, que se resumen mejor como la creencia en que el Universo debe ser como es para que podamos estar aquí y observarlo.
También es útil preguntar cuántos átomos hay en el Universo. Una estimación ha dado con un número total tan grande como 1079, o en otras palabras un 1 seguido de 79 ceros.
Tradicionalmente hemos visto los átomos como constituidos de tres partículas fundamentales: el protón (que lleva una unidad de carga eléctrica positiva), el neutrón (sin ninguna carga) y el mucho menos masivo electrón (que lleva una unidad de carga negativa). Dicho sea de paso, no es nada fácil definir lo que es la carga eléctrica en el nivel atómico. Bastará pensar en la carga como una propiedad que pueden tener las partículas, de la misma forma que tienen un tamaño y una masa. La carga se da siempre en porciones de tamaño fijo que llamamos carga unidad.
Clásicamente se considera que estas partículas se organizan como un sistema solar en miniatura, con los electrones en órbita en torno a un núcleo compuesto central, que contiene protones y neutrones. Este núcleo porta una carga eléctrica positiva, que está equilibrada exactamente con la carga combinada de los electrones orbitales. En nuestro Sistema Solar planetario, la fuerza de la gravedad mantiene a los planetas en sus órbitas alrededor del Sol central, pero en el átomo es la atracción entre el electrón cargado negativamente y el núcleo positivo la que mantiene a los electrones en sus órbitas.
De paso, deberíamos señalar que esta sencilla imagen puede explicar buena parte de la química básica; por ejemplo, por qué son los electrones externos de los átomos los que suelen estar involucrados en las reacciones químicas. Ellos están más alejados del núcleo, y por eso están menos firmemente sujetos por la fuerza atractiva. Por ello el átomo más simple, el de hidrógeno, tiene un único protón en su núcleo, y un electrón orbital. El átomo completo es así eléctricamente neutro: más uno sumado a menos uno da cero. Todos los átomos tienen el mismo número de protones que de electrones. Cada elemento tiene un único número de dichas partículas, conocido como número atómico. Por ejemplo, los átomos de helio tienen dos protones y dos electrones -un número atómico de dos- mientras que los átomos de carbono tienen un número atómico de seis. Los elementos pesados tienen grandes números de protones y electrones. El uranio, el elemento natural más pesado en la Tierra, tiene un número atómico de 92.
Esta visión del átomo, que veía los protones y electrones como bultos sólidos, dominaba a principios del siglo XX, pero las cosas son hoy en día mucho menos nítidas. Buena parte del extraño comportamiento de los sistemas extraordinariamente pequeños sólo puede explicarse ahora considerándolos hechos de ondas más que de partículas. Esta teoría se conoce como dualidad onda-partícula. Además, los experimentos han demostrado que mientras los electrones parecen ser realmente indivisibles, los protones y los neutrones no son de hecho fundamentales; pueden dividirse en partículas más pequeñas conocidas como quarks, que ahora se cree que son fundamentales. Nadie ha visto nunca un quark, pero sabemos que deben existir puesto que han sido detectados en aceleradores de partículas que se han construido para hacer chocar protones a velocidades increíblemente altas. En estos experimentos se ve que los protones se fracturan, y de ello deducen los científicos que no pueden ser fundamentales. La naturaleza aborrece un quark desnudo, de ahí que los quarks aparezcan siempre en pares o tríos solamente.
Las fuerzas de la naturaleza
La razón de esta propiedad de los quarks reside en una propiedad inusual de la fuerza que normalmente liga los quarks, conocida (no sin razón) como la fuerza nuclear fuerte. Es dominante a escalas muy pequeñas, y por eso es por lo que necesitamos aceleradores de partículas tan potentes para romper los protones. A diferencia de las fuerzas con las que estamos familiarizados a escalas mayores, tales como la gravedad o la atracción entre cargas eléctricas opuestas, la fuerza fuerte aumenta con la distancia. En otras palabras, si pudiéramos separar dos quarks encontraríamos que se atraen cada vez con más fuerza a medida que crece la distancia entre ellos. Finalmente, cuando los quarks se alejan, la energía utilizada para separarlos se hace tan grande que se generan dos quarks extra, convirtiéndose la energía en masa. De repente tenemos dos pares de quarks en lugar del quark individual que intentábamos aislar. Este proceso significa que ningún experimento produce nunca quarks individuales, y en el Universo cotidiano existen solamente como componentes de otras partículas, tales como protones y neutrones, cada una de las cualescontiene tres quarks.
A las enormes temperaturas del Universo inmediatamente después del Big Bang, los quarks tenían suficiente energía para pulular libres, y por ello, si entendemos la historia del Universo a las máximas escalas podemos llegar a entender más sobre las partículas que explican las escalas más pequeñas. La energía que poseía cada partícula en el Universo primitivo seguirá estando mucho más allá del alcance de nuestros aceleradores de partículas; ni siquiera un acelerador del tamaño del Sistema Solar sería capaz de producir partículas con esta enorme energía.
Es un hecho notable que nuestra investigación actual sobre lo muy pequeño, vía física de partículas, y a escalas más grandes, vía cosmología, están muy entrelazadas. Para entender todo el Universo dependemos de nuestra comprensión de las partículas fundamentales, y los mejores tests para nuestras teorías sobre ellas están en el Universo embrionario. Un "espacio caliente" lleno de estas partículas fundamentales altamente energéticas es la imagen más temprana que podemos evocar de nuestro Universo recién nacido.
Más grande es más frío
Desde el primer tiempo de Planck en adelante, este Universo inconcebiblemente pequeño e inconcebiblemente caliente empezó a expandirse y con ello también a enfriarse. El Universo era un océano de quarks, cada uno de los cuales tenía una enorme cantidad de energía, moviéndose a enorme velocidad. Como resultado, no podía haber átomos ni moléculas del tipo que conocemos hoy, porque éstas son estructuras complicadas, completamente incapaces de sobrevivir a la irrupción de muy altas temperaturas; los quarks eran simplemente demasiado energéticos para ser capturados y quedar confinados dentro de protones o neutrones. En lugar de ello, eran libres de pasearse por el Universo niño hasta que chocaban con sus vecinos. Además de quarks, esta primitiva sopa de partículas subatómicas contenía también antiquarks: gemelos idénticos pero con cargas eléctricas opuestas. Ahora se cree que cada partícula tiene su correspondiente antipartícula, idéntica en todos los aspectos salvo en su carga eléctrica, que es opuesta. La partícula de antimateria correspondiente a un electrón es un positrón, que lleva una carga positiva, pero por lo demás es exactamente similar al electrón. El concepto de antimateria es familiar por la ciencia ficción, en donde sirve de base a incontables motores estelares muy avanzados, todos los cuales están basados en el hecho de que una colisión entre una partícula y su antipartícula da como resultado la aniquilación de ambas y la liberación de mucha energía (esto ha sido verificado por experimentos). Cuando quiera que un quark se encontraba con un antiquark en el Universo primordial ambos desaparecían, liberando un destello de radiación. También ocurría el proceso inverso: una radiación de energía suficientemente alta (desde luego las energías encontradas en esta etapa primitiva de la evolución del Universo) podía producir de forma espontánea pares de partículas, cada par compuesto de una partícula y su antipartícula. El Universo en esta época estaba así compuesto enteramente de radiación que producía pares de partículas, que a su vez desaparecían cuando colisionaban entre sí, devolviendo su energía a la radiación de fondo.
A medida que el Universo seguía expandiéndose y enfriándose, después del primer microsegundo (sólo 10 millones de millones de millones de millones de millones de millones de tiempos de Planck), cuando la temperatura descendió por debajo de un valor crítico de unos 10 millones de millones de grados, los quarks se frenaron lo suficiente para que pudieran ser capturados por su atracción mutua (fuerza fuerte). Se juntaron racimos, cada uno de tres quarks, para formar nuestros familiares protones y neutrones (conocidos colectivamente como bariones), mientras que los antiquarks se juntaron para formar antiprotones y antineutrones (antibariones). Si el número de bariones y antibariones hubiera sido el mismo, el resultado más probable es que las colisiones entre ellos habrían producido una aniquilación completa. La energía dejada en la radiación se habría diluido a medida que el Universo se expandía, y por ello ya no se habrían creado nuevos pares de partículas. La materia en el Universo no habría sobrevivido hasta el presente.
Fue sólo el hecho de que había un desequilibrio muy ligero incorporado desde el principio lo que salvó a la materia, y ello nos permite estar aquí, preguntándonos lo que sucedió en estos tiempos remotos. Debido a razones que aún no entendemos, por cada 1.000 millones de antibariones había 1.000 millones y un bariones, de modo que cuando terminó el gran estallido casi todos los antibariones habían desaparecido, dejando tras ellos el residuo de protones y neutrones que forman los núcleos atómicos de hoy.
La conspiración cósmica
Volvamos por un momento al presente; consideremos dos galaxias, cada una de ellas a 9.000 millones de años-luz de nosotros, pero en direcciones opuestas vistas desde la Tierra. La distancia entre ellas es por lo tanto de 18.000 millones de años-luz. Ambas existirán en regiones del Universo que, hablando en general, parecen iguales en las escalas más grandes. Una puede estar en el corazón profundo de un cúmulo de galaxias, tal como nuestro cercano Cúmulo Virgo, mientras que la otra puede estar mucho más aislada. Y pese a todo, cerca de la primera habrá galaxias aisladas, y cerca de la segunda galaxia habrá inevitablemente un cúmulo galáctico. Cada región contendrá los mismos tipos de galaxias en la misma proporción, e incluso la temperatura local de la región será la misma en ambos casos.
Esto constituye un problema conocido como la "conspiración cósmica". El Universo tiene menos de 18.000 millones de años de edad (recordemos que la mejor estimación es de 13.700 millones de años), de modo que la luz no habría tenido tiempo suficiente para ir de una galaxia a otra, y la relatividad insiste en que la luz es la cosa más rápida en el Universo. Si la luz no ha tenido tiempo para atravesar el espacio entre las dos regiones, entonces nada más puede haberlo hecho, y por lo tanto nada podría haber pasado de la primera región a la segunda. Ninguna diferencia entre las regiones podría haber sido neutralizada, y por eso es sorprendente que el Universo parezca casi igual en cualquier dirección que miremos; vemos galaxias del mismo tipo, distribuidas prácticamente de la misma forma, y esto es lo que ha pasado a denominarse la "conspiración cósmica".
¿Por qué esto es un problema? ¿No parece natural que el Universo parezca igual en cualquier dirección que miremos? Quizá hay una ley aún desconocida, que gobierna la física del propio Big Bang, que garantiza que sólo pueden producirse universos que sean casi completamente uniformes. Sin embargo, no tenemos ningún indicio de ninguna física que pudiera predecir esto, y por ello debemos considerar al menos la posibilidad de que el Universo empezara con grandes diferencias de temperatura entre regiones diferentes, por ejemplo, un universo primitivo en el que una mitad está el doble de caliente que la otra mitad. ¿Cómo podría llevar esto al tipo de uniformidad que vemos hoy? No ha habido tiempo para que el calor fluya desde la región caliente a la región fría del Universo, y no hay siquiera tiempo para enviar un mensaje que viaje a la velocidad de la luz. En tales circunstancias, corregir este desequilibrio original parecería imposible, y pese a todo estas áreas ampliamente separadas e inconexas son, de hecho, similares.
Nuestras dos galaxias pueden estar alejadas ahora, pero cuando el Universo era muy joven también era mucho más pequeño y cuerpos en lados opuestos podrían haber estado en contacto e intercambiar calor, produciendo la uniformidad que vemos hoy. La pregunta ahora, por lo tanto, es qué tamaño tenía el Universo en estas etapas tempranas. Sorprendentemente esta pregunta parece tener una respuesta bastante simple.
Sólo una de las fuerzas que hemos mencionado hasta ahora puede actuar a distancias astronómicas y ésa es la gravedad, que por su propia naturaleza es una fuerza atractiva que tiende a juntar la materia. La gravedad sola frenaría la expansión respecto a su velocidad inicial. Podemos tratar de ir hacia atrás desde el presente para determinar cómo ha cambiado el tamaño del Universo con el tiempo y descubrimos que la conspiración cósmica sobrevive hasta el Universo primitivo. En otras palabras, el Universo nunca ha sido suficientemente pequeño para permitir que la luz vaya de un lado al otro, y por lo tanto nunca lo ha sido para permitir que las diferencias de temperatura se igualen. El escenario entero presupone que la gravedad es la única fuerza que afecta a la velocidad de expansión, y solamente si estamos preparados para abandonar esta idea podemos resolver el problema de la conspiración.
El loco edificio de la inflación
La solución más aceptada actualmente implica aumentar algo la complejidad de la teoría del Big Bang. La mayoría de los cosmólogos creen ahora que hubo un periodo extraordinariamente corto de rápida expansión, conocido como inflación, entre 10-35 y 10-32 segundos después del Big Bang, durante el cual el tamaño del Universo aumentó muchos miles de millones de veces. Al final del periodo inflacionario la expansión se redujo y se asentó en un ritmo relativamente estable.
Sin un periodo de inflación, las regiones del Universo que vemos en lados opuestos del cielo nunca habrían tenido tiempo de intercambiar calor ni asentarse en un cómodo equilibrio. La expansión rápida sugerida nos permite creer que el Universo era inicialmente mucho más pequeño, y pudo así alcanzar una temperatura uniforme antes de que empezara la aceleración. Cualesquiera pequeñas diferencias residuales serían entonces igualadas por el enorme aumento de escala. Esto se debe a que otra consecuencia de la inflación espectacularmente rápida es que la región del Universo que observamos es sólo una minúscula fracción del Universo entero. En otras palabras, sólo estamos mirando variaciones en nuestro entorno local, y éstas están abocadas a ser pequeñas. Para dar una analogía mucho más próxima a casa, la Tierra tal como la vemos presenta enormes variaciones en altura, desde la cima del Monte Everest al fondo de la fosa oceánica más profunda. La inflación consigue un efecto equivalente a ampliar la región del suelo que tiene usted bajo su dedo pulgar del pie hasta el tamaño del globo entero (o, de forma equivalente, contraernos hasta un tamaño mucho menor que el virus más pequeño). Las diferencias de altura que podemos alcanzar y explorar están entones limitadas a ser pequeñas; la inflación tiene exactamente la misma influencia sobre las fluctuaciones de temperatura en el Universo.
Pero ¿por qué el Universo niño debería experimentar un aumento tan extremo en la velocidad de expansión? Parece que hay necesidad de introducir una nueva fuerza que actúa en dirección contraria a la gravedad, y que puede ser responsable de la enorme aceleración. Los científicos han empezado a estudiar en detalle qué propiedades podría tener dicha fuerza y todavía no parece haber una explicación obvia. Hasta donde sabemos, no hay circunstancias concretas propias de la época inmediatamente anterior a la inflación, y la aparición y desaparición repentina de esta fuerza aceleradora parece así ser algo arbitraria, pero al menos nos permite tratar el problema de la "conspiración cósmica".
¿Hay otros problemas que nos pueda resolver la introducción de la inflación? Resulta que la inflación también puede explicar otras dos características del Universo que vemos hoy, que de otra forma son completamente inexplicables. Primero, según la teoría estándar de la física de partículas, un cierto tipo de partícula, conocido como un monopolo, debería aparecer ocasionalmente en los detectores. Pero el caso es que todavía no se ha detectado ninguno, y esto requiere una explicación. La teoría de la inflación nos permite argumentar que la concentración de estas partículas ha llegado a ser tan baja que nuestro fallo en detectarlas no puede sorprender. Digamos, a favor del argumento, que 100 millones de millones de estas partículas se crearon en el Big Bang; sería sorprendente que no hayamos conseguido detectar una sola. Pero si el mismo número de monopolos se crearon y dispersaron a lo largo de un universo que se ha hecho muchos miles de millones de veces más grande que antes de la inflación, sería perfectamente probable que no hubiera ninguna en todo el Universo visible. La velocidad de la inflación era tan abrumadora que, incluso en el corto tiempo durante el que actuó, produjo un Universo que era inconcebiblemente mayor que el predicho por el Big Bang convencional. La inflación proporciona una explicación para la ausencia de partículas: simplemente se han diluido.
Vida en un Universo plano
Hay un tercer pilar que soporta el edificio aparentemente loco de la inflación, y es quizá el más convincente de todos. Éste implica a la geometría del Universo. La mayoría de las personas están familiarizadas con la geometría de Euclides que aprendemos, a veces quizá a regañadientes, en la escuela. Nos han contado que los tres ángulos de un triángulo suman 180 grados. Sin embargo, no siempre es así; sobre la superficie de una esfera, por ejemplo, pueden sumar más de 180 grados. Consideremos una línea dibujada desde el Polo Norte hasta el ecuador, a lo largo del meridiano de Greenwich, y luego hacia el este a lo largo del ecuador, tras un giro de 90 grados. Si completamos el triángulo volviendo al polo a lo largo del meridiano que atraviesa Rusia, habremos dado otro giro de 90 grados. 90+90 = 180, y aún tendremos que sumar el ángulo en la parte superior, entre los dos meridianos. La geometría euclídea se aplica sólo en superficies planas.
¿Qué forma toma la geometría del Universo? Las cosas se complican porque estamos tratando con un espacio tetradimensional (las tres dimensiones espaciales familiares, más el tiempo) en lugar de una superficie bidimensional como antes. Consideremos las máximas escalas, e ignoremos distorsiones locales debidas a la materia. Hay un número enorme de geometrías posibles para el Universo, y pese a todo parece que nuestro Universo ha sido muy bien ajustado para seleccionar un tipo específico; las observaciones muestran (véase la radiación del Fondo Cósmico de Microondas en el Capítulo 2) que vivimos en lo que se conoce como un Universo "plano", uno en el que la geometría euclídea es válida incluso en las escalas más grandes. ¿Por qué debería ser así? Para conseguir un Universo plano, necesitamos tener exactamente la cantidad correcta de materia dentro del Universo, con un margen de error de unos pocos átomos. En otras palabras, si hubiera unos pocos átomos por exceso o por defecto estaríamos en un Universo con una geometría lejos de ser plana.
Una vez más nos enfrentamos a una observación que podría atribuirse a alguna característica de la física temprana que gobierna el propio Big Bang -y una vez más la inflación nos permite una explicación alternativa y más satisfactoria-. El argumento se basa, como antes, en el hecho de que la inflación proporciona un Universo mucho mayor que el que proporciona el simple Big Bang.
Consideremos una analogía tridimensional que nos ayude a pensar en cuatro dimensiones. Cualquiera que permanezca de pie en la parte superior de una bola de bolos descubrirá rápidamente que es una esfera, presumiblemente cuando él o ella se caiga. ¿Qué pasa con una esfera más grande, tal como la Tierra, sobre la que felizmente estamos cada día? Quizá no sea inmediatamente obvio que estamos sobre una superficie curva, aunque ciertamente es bastante fácil calcularlo. Contrariamente a la creencia popular, ya desde el tiempo de los antiguos griegos se sabía que la Tierra es una esfera (incluso consiguieron medir su diámetro) y la simple observación de un barco que desaparece en el horizonte ofrece una clave de que la superficie de la Tierra es curva. Imaginemos ahora que estamos en la superficie de una esfera varios billones de veces mayor que la Tierra. Todos nuestros experimentos indicarían que realmente estábamos en una superficie plana; la curvatura debida a la esfera sería simplemente demasiado pequeña para ser detectada -nuestro barco tardaría un tiempo inconcebiblemente largo en alcanzar el horizonte.
Después de la inflación
Un Universo que ha sufrido inflación es como esta última esfera. Puesto que se ha inflado hasta un tamaño tan enorme, nuestro Universo observable es sólo una proporción minúscula de él y sólo podemos medir sus propiedades locales. Podemos concluir, correctamente, que el Universo que podemos ver tiene una geometría plana. En un Universo tan inmenso no podemos saber nada sobre su geometría más allá del alcance de nuestras observaciones. Independientemente de cuál de las muchas geometrías posibles tenga el Universo, la inflación nos dice por qué nuestras medidas indican que es plano.
Estos tres problemas están claramente resueltos por la idea de la inflación, aunque al precio de introducir la aceleración temporal y misteriosa que sigue siendo pobremente entendida. Quizá cuando lleguemos a una comprensión mayor del propio Big Bang tendremos una respuesta alternativa, pero por ahora la inflación parece ser una explicación tan buena como cualquiera.
Tras el final de la inflación, el Universo siguió expandiéndose y enfriándose a un ritmo menor. Alrededor de tres segundos después del Big Bang, la temperatura había caído hasta aproximadamente 1.000 millones de grados Kelvin. Alrededor de tres cuartas partes del material en el Universo era hidrógeno, y casi todo lo demás era helio (recordemos que el átomo de helio tiene dos electrones que orbitan en torno a un núcleo compuesto de dos protones y dos neutrones).
El Big Bang predice que por cada diez protones, o núcleos de hidrógeno, producidos había un núcleo de helio. Hoy día los átomos de hidrógeno aún superan a los de helio por diez a uno. Esto ofrece quizá el test más simple, y pese a todo poderoso, de la teoría del Big Bang. Las estrellas convierten hidrógeno en helio, y por ello esperaríamos que la proporción cambie sólo a favor del helio. Si observáramos un único objeto, en cualquier parte del Universo, en el que hubiera menos helio del esperado tendríamos que reconsiderar por completo nuestra teoría. Nunca se ha hecho tal observación.
De modo que ¿creemos en el Big Bang? Su principal competidor, la teoría del estado estacionario, parece ahora finalmente muerta. Por ahora, el Big Bang se mantiene solo en el escenario. Debemos recordar que es imposible probar una teoría, y todo lo que podemos esperar es asegurar que es compatible con toda la evidencia disponible. El Big Bang con inflación parece satisfacer este requisito. Sin embargo, en cualquier momento un nuevo descubrimiento podría revelar un fallo fatal en la teoría. Hasta que un nuevo Newton u otro Einstein produzca algo mejor, debemos vivir con el Big Bang.
Su descubridor gana 100 mil dólares por usar un protector de pantalla especial
Suena a estafa, una de esas bastante difundidas por Internet, lo admitimos. Pero a veces, con las herramientas adecuadas a nuestra disposición, un poco de suerte y mucha paciencia, las posibilidades pueden volcarse en realidades.
El año pasado, Edson Smith --encargado de computación del Departamento de Matemáticas de UCLA (Universidad de California, Los Angeles) durante los últimos 10 años--, decidió reemplazar los protectores de pantalla de los laboratorios con el software gratuito Prime95.
13 millones de dígitos
Este programa se comunica a través de Internet con el servidor PrimeNet y trata de encontrar números primos (números que son divisibles únicamente por si mismos y por 1) de un tipo especial, llamados primos de Mersenne, que son de la forma 2^p-1, donde p es un número primo.
Y voilà, el 23 de agosto, en vez de partículas o polígonos, una computadora emitió un sonido que notificaba el descubrimiento del número primo 2^43,112,609-1, un número de casi 13 millones de dígitos, el cual le hace merecedor del premio de 100.000 dólares que la Fundación de Frontera Electrónica ofrecía al descubridor del primer número primo de al menos 10 millones de dígitos.
El número descubierto por Smith también se coloca en el lugar 45 --en orden de magnitud y fecha de descubrimiento-- de la lista de los récords de los números primos de Mersenne, establecida hace unos 2.500 años. ¡Nada mal por un simple reemplazo de los protectores de pantalla!
11 millones de dígitos
Como pasa a menudo con los grandes descubrimientos y con casi todos los aspectos de la evolución del conocimiento, como ya los enfatizaba la sincronicidad de Jung, el 46º. primo de Mersenne (2^37156667 - 1 de casi 11 millones de dígitos fue descubierto un par de semanas después, el 6 de septiembre, por Hans-Michael Elvenich, en un poblado cerca de Colonia, Alemania. Se lleva el récord pero no el dinero. ¡Lástima!
Sin embargo, aún hay esperanza. Como dijo George Woltman, fundador de GIMPS (Gran Búsqueda por Internet de primos de Mersenne, por sus siglas en inglés) y creador del software Prime95, en un comunicado de prensa el pasado 16 de septiembre: Nuestro proyecto de investigación nos brindará pronto la oportunidad de alcanzar el siguiente desafío, el premio de los $150,000 dólares por un inmensamente más difícil primo de 100 millones de dígitos.
Expertos rusos de la Universidad estatal Tomsk han realizado un estudio para comprobar lo que sucede en nuestro organismo cuando se carece del campo magnético terrestre. Y los resultados no son nada buenos, ya que su ausencia podría provocar que los astronautas desarrollen trastornos mentales durante los vuelos espaciales, en particular en expediciones a Marte.
Los experimentos fueron realizados con 12 ratas, en una unidad especial donde el campo magnético terrestre fue reducido a un milésimo de su fuerza durante 25 días. Los animales perdieron habilidades sociales, tenían problemas con la memoria y experimentaron cambios en sus órganos internos, a veces, volvían a examinar el entorno como si no lo conociesen.
Según los investigadores, el campo magnético terrestre afectaría a todos los organismos vivos. De hecho, ciertas catástrofes, como por ejemplo la extinción de los dinosaurios pudieron estar conectadas a la desaparición del campo magnético.
En las naves espaciales viajan a altitudes relativamente bajas, pero donde el campo magnético se encuentra reducido en cerca de 20 por ciento respecto a la superficie de la Tierra. Como prevención, los científicos proponen crearlo de manera artificial en las naves para prevenir trastornos mentales.
El efecto Pauli no debe confundirse con el principio de exclusión de Pauli, que es un tipo de fenómeno físico.
Desde el siglo XX, los trabajos de investigación de la física se han dividido entre teóricos y experimentadores (véase el método científico). Sólo unos pocos físicos, como Fermi, han tenido éxito en ambos papeles. Al carecer de habilidad y experiencia en trabajos experimentales, muchos teóricos se han ganado una reputación de romper accidentalmente el equipo experimental. Pauli fue excepcional en este sentido: se dijo que era tan buen teórico que cualquier experimento se autodestruía, simplemente debido a su presencia. Por temor al efecto Pauli, se cuenta que el físico experimental alemán-americano Otto Stern prohibió acercarse a Pauli a su laboratorio, a pesar de su amistad.
Durante un incidente ocurrido en un laboratorio de física en la Universidad de Göttingen, un costoso dispositivo de medición, sin motivo aparente, de repente dejó de funcionar. El jefe del grupo de investigación llegó a la conclusión, de que habían sido víctimas del efecto Pauli, pero alguien respondió que Pauli se dirigía en ese momento a Zúrich, así que no era posible que fuese por él. Sin embargo, cuando esta historia fue contada a Pauli, él recordó que en ese momento estaba en Göttingen en una estación de ferrocarril a la espera de tomar un tren. Este incidente fue relatado magistralmente por George Gamow en su libro "Biografía de la Física": “Un hecho totalmente enigmático, que en un principio no parecía estar conectado para nada con la presencia de Pauli, ocurrió cierta vez en el laboratorio del profesor J. Franck, en Göttingen. el laboratorio del profesor J. Franck, en Göttingen. Una tarde, apenas comenzadas las tareas, un complicado aparato destinado al estudio de los fenómenos atómicos se estropeó totalmente, sin razón aparente alguna. Pasado el mal rato, Franck escribió a propósito de esto una carta humorística a la casa de Pauli en Zurich y, tras cierto retraso, recibió una respuesta, pero el sobre mostraba estampillas de franqueo danesas. En ella Pauli le afirmaba que se había ido a visitar a Bohr y que, más o menos para la hora del desastre en el laboratorio de Franck, su tren había estado detenido, por pocos minutos, en la estación de Ferrocarril de Göttingen.”
El efecto Pauli, en caso de ser real, sería clasificado como un fenómeno "macro-psicocinético" . Wolfgang Pauli, estaba convencido (según su biógrafo Enz) de que el efecto que lleva su nombre era real. Markus Fierz, un colega cercano, dijo que "Pauli cree ciertamente en la existencia de este efecto".[1] Como Pauli consideraba la parapsicología como un campo de investigación serio, esto encajaría con su pensamiento científico. En febrero de 1950, cuando fue de visita a la Universidad de Princeton, el ciclotrón se incendió, y se preguntó a sí mismo si esta "travesura" pertenecería al misterioso efecto Pauli, que lleva su nombre.[2