Seguidores

sábado, 31 de octubre de 2015

¿Qué es el bosón de Higgs?

El bosón de Higgs es un tipo de partícula elemental que se cree tiene un papel fundamental en el mecanismo por el que se origina la masa de las partículas elementales.
Sin masa, el Universo sería un lugar muy diferente. Si el electrón no tuviera masa no habría átomos, con lo cual no existiría la materia como la conocemos, por lo que tampoco habría química, ni biología ni existiríamos nosotros mismos.

el campo de Higgs requiere la existencia de una partícula que lo componga, que los físicos llaman "bosón de Higgs". Ésta es la última pieza que falta para completar el Modelo Estándar de Física de Partículas, que describe todo lo que sabemos de las partículas elementales que forman todo lo que vemos y cómo interaccionan entre ellas.

El campo de Higgs sería un continuo campo que se extiende por todo el espacio, formado por un incontable número de bosones de Higgs. La masa de las partículas estaría causada por una "fricción" con el campo de Higgs, por lo que las partículas que tienen una mayor fricción con este campo tienen una masa mayor.

Se llama 'bosón' porque este es el nombre de las partículas que portan fuerzas o interacciones, como lo son el fotón, el gluón y los bosones W y Z. El otro tipo de partículas subatómicas se llama fermión, que son las que componen la materia que vemos.
La confirmación o refutación de la existencia del bosón de Higgs es uno de los objetivos del Gran Colisionador de Hadrones, el mayor y más potente acelerador de partículas del mundo que opera la Organización Europea para la Investigación Nuclear en la frontera franco‐suiza, cerca de Ginebra (Suiza).
El bosón de Higgs no se puede detectar directamente, ya que una vez que se produce se desintegra casi instantáneamente dando lugar a otras partículas elementales más habituales. Lo que se pueden ver son sus "huellas", esas otras partículas que sí podrán ser detectadas en el LHC.

Este momento tan esperado llegó el 4 de julio de 2012, cuando las colaboraciones ATLAS y CMS presentaron nuevos resultados sobre la búsqueda del bosón de Higgs en el LHC con datos obtenidos en 2011 y 2012 como antesala de la gran conferencia de Física de Partículas ICHEP2012. En un seminario celebrado el la sede del CERN de Ginebra, ante una sala abarrotada y la expectación de la comunidad científica internacional, los portavoces de ambos experimentos, Fabiola Gianotti (ATLAS) y Joe Incandela (CMS) mostraron por separado resultados que muestran la observación de una nueva partícula en el rango de masas entre 125 y 126 GeV (gigaelectronvoltios), unas 134 veces la masa de un protón.

Esta nueva partícula sería un bosón, el más pesado observado hasta la fecha. Sin embargo, estos resultados todavía son preliminares, por lo que no se puede afirmar que estamos ante el bosón de Higgs descrito por el Modelo Estándar o una versión más 'exótica', que abriría la puerta a la comprensión de otras preguntas fundamentales de la Física como la naturaleza de la materia y energías oscuras, que componen el 96% del Universo.

domingo, 25 de octubre de 2015

La grandiosa nanotecnología

La nanociencia no debe interpretarse solo como un paso más hacia la miniaturización. Representa potencialmente la posibilidad de lograr una convergencia de la física cuántica, la biología molecular, la química, las ciencias de la computación y la ingeniería.

Los científicos están dando grandes pasos en el estudio de los fenómenos a nanoescala y en el intento de obtener un mayor control sobre la materia. La nanotecnología permite a los científicos manipular la materia orgánica e inorgánica átomo a átomo o molécula a molécula. La “nanociencia” representa potencialmente una revolución en la construcción de dispositivos con precisión atómica. 

La nanociencia y la nanotecnología se espera que revolucionen la ciencia y la sociedad. Las aplicaciones en este campo tienen el potencial de transformar la medicina, la biotecnología, la agricultura, la industria manufacturera, la ciencia de los materiales, la industria aeroespacial, las tecnologías de la información y las telecomunicaciones, por nombrar tan sólo algunos sectores más afectados.

En un marco económico de fuertes restricciones, la ciencia ficción se ha aproximado más a la realidad que las previsiones de economistas o de científicos de otras especialidades.

Los Nanodrones

Siguiendo el modelo de los pájaros, los insectos y otros animales pequeños, estos pequeños dispositivos de vigilancia de a bordo pueden permanecer ocultos a plena vista mientras navega espacios de límites a los aviones convencionales. 

Los microdrones son capaces de despegar y aterrizar en cualquier lugar, maniobrar a través de calles, pasillos y escondrijos.
Estos micro drones seguirán siendo un aporte letal, equipadoscon un arsenal de armas y sensores, que incluyen pistolas Taser , armas bean-bag ,cámaras de video de alta resolución , sensores infrarrojos, lectores de matrículas y dispositivos de escucha. 


En la actualidad, los nanodrones son empleados con éxito en las misiones militares de las fuerzas de la NATO en Afganistán. Dotados de sensibles microcámaras, resultan indetectables pues simulan ser insectos.
Su uso principal es el reconocimiento de escondites y calles que impliquen peligro para las tropas.

Nanopartículas para proteger tu Smartphone

Una compañía del sur de California ha creado Liquipel, uno de los inventos más revolucionarios para smartphones. Se trata de un protector químico, fabricado a base de diminutas nanopartículas, que aísla los circuitos y otros componentes de los teléfonos móviles de cualquier líquido que pueda caer sobre el aparato. De este modo, aseguran haber conseguido que uno de los accidentes más comunes con cualquier 'gadget' -que se moje- deje de ser una preocupación para los usuarios. Según sus creadores, el terminal sigue funcionando normalmente aunque se caiga a una piscina o a un río.


La nueva invención nanotecnológica no se trata de una carcasa o un protector físico, sino de un tratamiento que aplican al teléfono solamente en la propia sede de la empresa Liquipel. El aislamiento del teléfono tiene un coste que oscila desde 47 hasta los 62 euros dependiendo del tipo de transporte por el que se envíe el dispositivo a las oficinas y por el que sea entregado de nuevo al usuario. Dispositivos de HTC, Motorola, Apple y Samsung son los que, por el momento, puede recibir este tratamiento.

La maravillosa idea de la nanomedicina

Nanomedicina: Nanobots que Destruyen el Cáncer

Imaginemos la miniaturizacion de un robot, que podría alojarse en nuestro torrente sanguíneo y destruir agentes patógenos, que hasta el día hoy no hemos podido, un ejemplo de ello sería el VIH o incluso células defectuosas que puedan llegar a producirnos un cáncer.

El primer ensayo en humanos ha sido un éxito, sin efectos secundarios: Se cuela dentro de la célula maligna, evade el sistema inmunológico y proporciona el siRNA y otros componentes. Esas son las palabras de Mark Davis, jefe del equipo de investigación que creó el ejército de nanobots contra el cáncer en el Instituto Tecnológico de California. Según un estudio que será publicado en Nature, Davis ha descubierto un equipo limpio y seguro para ofrecer secuencias de ARNi a las células cancerosas. De RNAi (interferencia de ácido ribonucleico) es una técnica que los ataques de los genes específicos en las células malignas, desactivan sus funciones internas y lo destruyen.

Los nanobots hecho con dos polímeros y una proteína que se une a la superficie de la célula cancerosa, un trozo de ARN, llamadas ARN interferente (siRNA), que desactiva la producción de una proteína, la célula maligna va muriendo de hambre hasta la muerte . Una vez que haya emitido su golpe letal, la nanopartícula se rompe en pedazos pequeños que son eliminados por el cuerpo en la orina.
En la imagen, los pequeños puntitos negros que ves en la foto de arriba son nanorobots, y la marea azul en la que están penetrando es una célula afectada por el cáncer.

Nanobolsas


NANOBOLSAS:

El acceso crecientemente limitado a fuentes de agua potable produce enfermedades debido al empleo de fuentes contaminadas que producen la muerte a 1,8 millones de personas cada año.
En la medida en que, tanto entidades privadas como públicas buscan soluciones viables al problema, una creación promisoria nos llega desde Sudáfrica, donde unos investigadores han usado la nanotecnología para crear bolsas de te purificadoras de agua que cuestan medio centavo y poseen el tamaño de un saquito de té.
El nuevo intento nanotecnolígica funciona de manera simple. Para activar la bolsa puriuficadora el usuario la coloca en el cuello del una botella conagua, y entonces bebe el agua que pasa a través de él. El diseño es portátil y efectivo, pues elimina todas las bacterias que pasen por el filtro. Nada de esto podría ser posible sin la ayuda de la nanotecnología.  Los investigadores han combinado nano  fibras ultrafinas con granos de carbón activado para filtrar contaminantes dañinos y matar bacterias.

¡Radioactividad!

energiaNo es mentira decir que las centrales nucleares son muy seguras, incluso extremadamente seguras. Pero tampoco lo es afirmar que, cuando sucede lo impensable, los efectos de un accidente nuclear se extienden mucho más en el tiempo y en el espacio que los de la mayoría de siniestros. En estos días, he visto a gente incluso tratando de compararlos con accidentes de tráfico, que sin duda causan muchos más muertos al año. Eso es una falacia, los efectos de un accidente de tráfico no se extienden a lo largo de miles de kilómetros cuadrados y, treinta años después, no quedan contaminantes peligrosos en las tierras agrícolas de los alrededores. 

Sin embargo, no es falaz comparar los accidentes nucleares con algunos accidentes industriales a gran escala, y notablemente con los que esparcen gran cantidad de contaminantes químicos. Que, por cierto, están compuestos por isótopos estables e intrínsecamente no desaparecen nunca (aunque, si se trata de moléculas compuestas, se pueden degradar con el tiempo). Como lo de Bhopal, que sigue contaminando. También quisiera recordar en este punto a las incontables víctimas de envenenamiento por arsénico en Bangladesh y otros lugares, ocasionadas cuando la población local se vio obligada a cavar miles de pozos más profundos porque el agua potable es cada vez más escasa. Y otros muchos más. 

No obstante, cuando una central nuclear casca… bien, pues existe un riesgo cierto de que escape al medio ambiente una gran cantidad de contaminantes muy extraños, algunos de los cuales son radioactivos y unos pocos furiosamente radioactivos. Resulta que, en los procesos nucleares mencionados más arriba, se producen gran cantidad de esas transmutaciones del alquimista que dan lugar a toda clase de isótopos raros e inestables. De hecho, toda la energía nuclear es una de estas transmutaciones del alquimista: convertir uranio o plutonio (o deuterio y tritio, cuando se alcance la fusión) en otras cosas, aprovechando la energía liberada en el proceso para producir calor, calentar agua y con ella mover turbinas eléctricas. (De lo del torio ya hablaremos en otra ocasión, que no es ni con mucho como lo pintan algunos.) 

Apolo 11

Apolo 11 era la primera misión tripulada a aterrizar en la Luna. Los primeros pasos por los seres humanos en otro cuerpo planetario fueron tomadas por Neil Armstrong y Buzz Aldrin, el 20 de julio de 1969. Los astronautas también regresaron a la Tierra las primeras muestras de otro cuerpo planetario. Apolo 11 logró su misión principal - para realizar un alunizaje tripulado y devolver la misión de forma segura a la Tierra - y allanó el camino para las misiones de aterrizaje lunar del Apolo a seguir.

La nave espacial Apolo 11 fue lanzado desde Cabo Kennedy a las 13:32:00 hora local el 16 de julio de 1969. Después de 2 horas y 33 minutos en la órbita terrestre, el motor de S-IVB se encendió para la aceleración de la nave espacial a la velocidad requerida para la escapar de la gravedad terrestre.

Inmediatamente después de aterrizar en la Luna, Armstrong y Aldrin prepararon el LM para el despegue como medida de contingencia. Después de la comida, un período de sueño programada fue aplazada a petición de los astronautas, y los astronautas comenzaron los preparativos para el descenso a la superficie lunar.


El astronauta Armstrong salió de la nave espacial primero. Mientras descendía, lanzó el Equipo Asamblea Estiba Modularizado, en la que se guardó la cámara de televisión de la superficie, y la cámara grabó el primer paso de la humanidad en la Luna. Se recogió una muestra de material de la superficie lunar y estibado para asegurar que, si una contingencia requiere un pronto fin a las actividades de superficie previstas, muestras de material de la superficie lunar serían devueltos a la Tierra. Posteriormente astronauta Aldrin descendió a la superficie lunar.

Aproximadamente dos horas y cuarto después de descender a la superficie, los astronautas comenzaron los preparativos para volver a entrar en el LM, después de lo cual los astronautas dormían. El ascenso de la superficie lunar comenzó a las 124: 22 GET, 21 horas y 36 minutos después del aterrizaje lunar. En la costa transearth único de los cuatro correcciones a medio camino planificadas se requería. El CM entró en la atmósfera de la Tierra a una velocidad de 36.194 pies por segundo (11.032 metros por segundo) y aterrizó en el Océano Pacífico.


Desde la NASA SP-214, Informe Preliminar de la Ciencia.


miércoles, 21 de octubre de 2015

Fusión nuclear. Parte. 2

El método láser

El tokamak parecía la vía más segura para obtener energía neta a partir de la fusión nuclear. Pero en los últimos años le ha salido un duro competidor en Estados Unidos; más concretamente en el Laboratorio Nacional Lawrence, en Livermore, California. Allí se inauguró el 29 de mayo de 2009 el Centro Nacional de Ignición
En esencia, el NIF es un enorme amplificador de láser. Todo empieza con un débil pulso inicial, de apenas una milmillonésima de joule (unidad de energía), que se origina en el centro del edificio. Dicho pulso es dividido luego en los 192 canales que se encargan de dirigir los haces de láser hacia su objetivo. A lo largo del kilómetro y medio que deben recorrer por el interior del edificio, todos los láseres atraviesan hasta 52 placas de vidrio amplificadoras; en cada una de ellas, la energía del haz aumenta en un 25%. Después de atravesarlas todas, la energía total del láser alcanza los cuatro millones de joules, unas 1 000 veces superior al consumo eléctrico de Estados Unidos en ese instante, y 100 veces superior a la energía que puede proporcionar cualquier otro láser del mundo. Justo antes de penetrar en la cámara de ignición y acercarse a su objetivo, unos cristales alteran la longitud de onda de la luz láser, pasando ésta del infrarrojo, adecuado para el desplazamiento lineal de los haces, al ultravioleta, que resulta más eficaz para inducir la fusión.
La cámara de ignición es una enorme esfera de unos 10 metros de diámetro. En su centro, un mecanismo que recuerda a un lápiz gigantesco mantiene en posición fija al objetivo, un cilindro de oro que contiene el combustible de hidrógeno. Los rayos láser convergen en el hohlraum con una sincronización y precisión tales que, después de haber serpenteado por el interior del edificio, deben incidir en el blanco con un desfase de apenas 30 billonésimas de segundo como mucho. Al recibir el impacto de los láseres, el hohlraum se comporta como un horno y responde emitiendo rayos X de alta energía, que alcanzan el envoltorio de la cápsula de hidrógeno y hacen que se expanda muy rápidamente. De acuerdo con la tercera ley de Newton, esta acción tiene una reacción, y es que el interior de la cápsula se comprime hasta el grosor de un cabello humano, alcanzando una densidad 100 veces mayor que la del plomo y una temperatura de decenas de millones de grados. Este súbito aumento de temperatura y densidad es lo que desencadena la fusión nuclear.

Acertado cambio de rumbo

Los experimentos en el NIF no empezaron con buen pie. Entre 2009 y 2012, los intentos por alcanzar una reacción de fusión mantenida fallaron estrepitosamente, consiguiendo apenas energías salientes del orden de 1 000 veces menores que las entrantes. La simetría de las implosiones, clave para lograr la estabilidad del escurridizo plasma y sacar el máximo provecho a la reacción de fusión, era muy diferente de las predicciones teóricas.
Después de analizar las causas del fracaso, los científicos introdujeron un cambio significativo en el experimento. Hasta ese momento, los pulsos de láser de la instalación estaban diseñados para proporcionar la mayor parte de la energía al final del proceso, con la idea de comprimir el combustible al máximo y aumentar el rendimiento de la reacción de fusión (cuanto mayor es la temperatura de un cuerpo, mayor es su resistencia a ser comprimido). Pero al trabajar así, la fina capa de plástico que recubría el combustible se rompía y se mezclaba con éste, reduciendo la presión interior y limitando la energía resultante.
A partir de entonces, los científicos modificaron los pulsos de láser de forma que la energía se suministrara en su mayoría al principio del proceso de compresión. De esta manera se limitó la compresión total a la que se puede someter el combustible. Pero a cambio la implosión del combustible resultó ser mucho más uniforme, pues el plástico ya no se rompía. Así, los investigadores del NIF consiguieron que la diana de hidrógeno se calentara hasta unos 50 millones de grados, y alcanzara una presión 150 000 millones de veces superior a la de la atmósfera terrestre. Semejantes condiciones propiciaron la fusión, y esta vez el combustible liberó 17 000 joules, bastante más que los 10 000 que desencadenaron el proceso. Este hito en la historia de la fusión nuclear ocurrió el 30 de septiembre de 2013.
Ahora bien, si consideramos el experimento en su conjunto y tenemos en cuenta los 1 800 000 joules necesarios para alimentar los láseres, entonces la situación cambia. La energía obtenida por el combustible ni siquiera llega al 1% de la suministrada por el láser. Para que te hagas una idea, los 1.8 megajoules (MJ) equivalen a la energía cinética de una vagoneta que viaja por la autopista a 120 kilómetros por hora. En cambio, los 17 kilojoules (KJ) de energía suministrados por el combustible son comparables a la energía de un motociclista que circula plácidamente por la ciudad. Es evidente que todavía queda mucho para revertir esta situación.

 

 

Reto descomunal

Pero aún cuando consigamos la producción de energía neta en todo el proceso, hay numerosos aspectos técnicos que resolver antes de que se pueda utilizar la fusión nuclear como fuente de energía útil. Hay que buscar materiales capaces de soportar las altas temperaturas del reactor y el bombardeo durante años de los neutrones de alta energía que se generan en las reacciones de fusión. El tritio, uno de los ingredientes habituales del combustible, se puede obtener a partir de litio, pero no en las cantidades necesarias; el reactor de fusión debería generar su propio tritio mediante una compleja serie de reacciones. Además, un reactor de fusión debería suministrar energía de forma continua durante años, sin interrupciones, caídas o averías. Ahora mismo, la fusión inducida por láser sólo puede provocar implosiones intermitentes, pues es necesario esperar varias horas a que se enfríen los láseres para volver a dispararlos. Un reactor comercial necesitaría prácticamente una implosión cada segundo. De la misma manera, los tokamaks deberían mantener el plasma durante semanas, no segundos.
 En cualquier caso, los enormes desafíos que plantea la fusión están a la altura de los beneficios que podría proporcionar. El otro ingrediente usado en el combustible, el deuterio, se puede obtener a partir del hidrógeno presente en el agua del mar. Apenas genera una pequeña cantidad de residuos de corta duración (el tritio es radiactivo, pero su vida media es de sólo 12 años y medio) y únicamente emite helio. En potencia, un litro de agua contiene la energía que consumiría un ser humano en toda su vida. Y cinco litros equivalen al petróleo almacenado en un buque tanque petrolero de gran tamaño.
Por si esto fuera poco, la reacción de fusión tiene una gran ventaja adicional: es absolutamente segura. Si algo va mal, lo único que puede ocurrir es que la temperatura en el interior del reactor se venga abajo y la reacción se detenga por sí sola. Igual que si paramos un microondas. Es imposible que un reactor de fusión se salga de control, por mucho que falle cualquiera de sus elementos. En cambio, ya sabemos por experiencia lo terrible que puede ser un accidente en un reactor de fisión nuclear, como el reciente de Fukushima en 2011 o el ya más lejano de Chernóbil en 1986.
La energía es el motor que impulsa al mundo, y su demanda no ha dejado de crecer desde hace más de un siglo. Sólo en las tres últimas décadas se ha duplicado su consumo, y se calcula que para 2030 aumentará un 60%. Los combustibles fósiles, como el petróleo, son limitados y contaminan el medio ambiente. También la fisión nuclear plantea serios problemas medioambientales y de seguridad, mientras que las energías renovables no han logrado aún ser más que un mero complemento. Sólo la fusión nuclear parece emerger en el horizonte como la única alternativa real. Esperemos que, en las próximas décadas, científicos e ingenieros consigan hacerla realidad y resuelvan el problema energético de la humanidad.

Fusión nuclear. Parte.1

Fusión nuclear, de las estrellas a la Tierra

Daniel Martín Reina
Es un sueño que persigue parte de la comunidad científica desde hace más de medio siglo: conseguir una fuente de energía barata, limpia y prácticamente ilimitada, que elimine de un plumazo los problemas energéticos de nuestra civilización. Una fuente de energía que la naturaleza conoce muy bien, pues es la que hace que brillen las estrellas en el cielo nocturno y el Sol nos ilumine durante el día.
Fusión nuclear, de las estrellas a la Tierra. El principio de la fusión nuclear es sencillo. Cuando se unen dos núcleos de átomos ligeros se libera energía. Si la reacción se mantiene el tiempo suficiente, la energía liberada puede superar ampliamente a la invertida para desencadenarla, con lo que esa ganancia de energía podría aprovecharse luego para generar electricidad. Además, el combustible habitual, el hidrógeno, es abundante y la reacción no produce gases nocivos. Todo son ventajas, salvo un pequeño inconveniente: la fusión nuclear controlada es muy difícil de conseguir.
Seguramente habrá que esperar todavía varias décadas hasta que se pueda utilizar la fusión como una fuente de energía útil. Pero estos últimos resultados nos dan la esperanza de que algún día no muy lejano seamos capaces de imitar a las estrellas y tener nuestro propio Sol en la Tierra.
Combustible estelar
El hidrógeno es el elemento más simple del Universo. También es el principal componente de las estrellas, como nuestro Sol. En su interior la temperatura es tan alta, varios millones de grados,  que el hidrógeno se encuentra en estado de plasma.
En el proceso se pierde algo de masa, que se transforma en luz y calor, y se emite hacia el exterior (masa y energía son equivalentes, de acuerdo con la famosa ecuación de Einstein, E = mc2). Esto es lo que hace que brillen las estrellas. Se calcula que una estrella de tamaño medio como el Sol es capaz de transformar unos cinco millones de toneladas de hidrógeno en helio cada segundo. Por eso suele decirse que el hidrógeno es el combustible de las estrellas, capaz de hacer que el astro genere luz y calor mientras pueda fusionarse en helio.
Si esto es lo que ocurre en el interior de las estrellas, ¿cómo conseguir la fusión nuclear en un laboratorio? La receta, en principio, parece fácil: recreando las condiciones que se dan en el interior de las estrellas. Básicamente, esto consiste en confinar la mayor cantidad de combustible de hidrógeno en el menor espacio posible y calentarlo a millones de grados; cuanto más tiempo, mejor. Si la combinación de estas variables —densidad, temperatura y tiempo— es la adecuada, entonces la reacción de fusión es capaz de mantenerse por sí misma, y la energía que se desprende es mucho mayor que la suministrada; se dice en ese caso que se ha alcanzado la ignición. En última instancia, conseguir la ignición es el objetivo de los científicos.
En la práctica, todo esto es sumamente complicado. A semejante temperatura, cualquier material tiende a explotar debido a la elevada presión. Además, el combustible utilizado fundiría el recipiente que se emplease para contenerlo. Y en el caso de que el recipiente no se derritiera de inmediato, al entrar en contacto con el plasma lo enfriaría considerablemente, deteniendo la reacción de fusión.

 

El Sol en una botella

Al estar el plasma cargado eléctricamente, una forma de intentar aislarlo del exterior sería mediante lo que se conoce como botella magnética. Es decir, un campo magnético con la forma apropiada para que las partículas eléctricas que componen el plasma no puedan escapar, quedando confinadas en su interior. El primer prototipo experimental, construido en 1956, consistía en una cámara de vacío toroidal —con forma de dona— que contenía hidrógeno. Mediante fuertes descargas eléctricas se conseguía elevar la temperatura del gas hasta convertirlo en plasma, que permanecía confinado por la acción de potentes electroimanes. Por su forma, a este dispositivo se le bautizó como tokamak .
Con uno de estos primitivos tokamaks, unos científicos soviéticos consiguieron en 1969 mantener un plasma a cinco millones de grados durante algunas centésimas de segundo, un verdadero logro para la época. Este resultado atrajo la atención del mundo occidental y muy pronto se empezaron a construir tokamaks en los principales laboratorios especializados en la fusión nuclear.  Cuanto más se calienta y se intenta comprimir para desencadenar la fusión, más se resiste el plasma a los esfuerzos para confinarlo. Como cuando tomas un puñado de arena con la mano y los granos se te escurren entre los dedos, el plasma siempre encuentra la manera de que sus partículas escapen de la prisión magnética.

La realidad es que, a pesar de haber superado numerosas dificultades técnicas durante estos años, el reactor JET no es lo suficientemente grande como para alcanzar la ignición. Hoy todas las esperanzas de la fusión por confinamiento magnético están puestas en un proyecto denominado Reactor Termonuclear Experimental Internacional, ITER por sus siglas en inglés, que se basa en la tecnología tokamak y en el que participan siete países.

lunes, 19 de octubre de 2015

Ondas de espacio, ondas de tiempo. La búsqueda de la radiación gravitacional






Livingston es un conjunto de casa en medio de una zona boscosa, en la región más pobre del sureste de Estados Unidos. Livingston se ha convertido en un sitio de gran importancia para el estudio de la física fundamental. La estructura es una nueva clase de observatorio astronómico dedicado no a la detección de la radiación electromagnética, sino de un tipo mucho más extraño de señales provenientes del espacio: las ondas gravitacionales.

La gravedad es esa fuerza que hace que vivamos pegados al piso, que nos duela mucho cada vez que nos caemos y que tengamos pesadillas cuando subimos a un avión. Si uno eliminaba toda la fricción lo más posible, todos los objetos caían al mismo tiempo, aunque no pesaran lo mismo. Igualmente no es cierto que los objetos celestes obedecen leyes físicas distintas. Por ejemplo, Kepler demostró que los planetas se movían alrededor del Sol en elipse y no en círculos, pues bien la ley de gravitación de Newton implicaba éstas elipses en forma natural. Newton encontró la forma de describir el comportamiento de la gravedad considerándola como una fuerza que actúa entres cualesquiera dos objetos con masa, pero nadie entendía cómo se propagaba la fuerza de un objeto a otro.




Maxwell y la velocidad de la luz:
Maxwell reunió las leyes existentes de la electricidad y el magnetismo en un conjunto de ecuaciones matemáticas hoy conocidas como ecuaciones de Maxwell en las que la electricidad y el magnetismo resultaba ser manifestaciones distintas de un mismo fenómeno: el electromagnetismo.
Las leyes de Maxwell predecían entre otras cosas, que el campo electromagnético podía propagarse a través del espacio en forma de ondas. Estas ondas electromagnéticas viajaban a una velocidad universal, que resultaba ser una combinación de constantes físicas bien conocidas. Pues bien al calcular el valor de esta velocidad Maxwell encontró que era de aproximadamente 300,000 km/s. Para esa época ya se sabía  que la luz se propagaba a esa velocidad.
Las ondas electromagnéticas vienen en muchas variedades dependiendo de su frecuencia, desde las ondas de radio y las microondas, pasando por la luz infraroja , la luz visible y los rayos ultra violeta, hasta llegar a los rayos X y los rayos gamma. La existencia de las ondas electromagnéticas mostraban por primera vez que la acción a distancia podía consistir de un campo de energía que se propagaba por el espacio a cierta velocidad.
La teoría de Maxwell daba lugar a la siguiente pregunta, ¿Podía la gravedad ser como el electromagnetismo y consistir en un campo de energía que se propaga a cierta velocidad?




La velocidad de Einstein:
Fue pionero de una de los dos grandes revoluciones de la física moderna, la mecánica cuántica, y fue el responsable prácticamente único de la teoría de la relatividad.
En realidad, hay dos teorías de la relatividad llamadas: relatividad especial y relatividad general. La relatividad especial surgió a partir de dos grandes teorías de la física clásica, la mecánica de Newtonn y la electrodinámica de Maxwell.
En 1905 Einstein demostró que se podía reconciliar el principio de la relatividad y la teoría del electromagnética si se alteraban los conceptos de espacio y tiempo. En la teoría de la relatividad de Einstein las distancias y el tiempo de flujo no son absolutas, sino que dependen del movimiento del observador. La relatividad de distancias y tiempos es el precio que hay que pagar si se requiere que las leyes de la física sean absolutas, es decir, que sean igual para todo observador.
La teoría de la relatividad especial se ha confirmado experimentalmente con alto grado de precisión y hoy en día es uno de los pilares de la física moderna. Una de sus consecuencias más importantes es que nada, ni objetos, ni campos de energía, ni efectos físicos de ningún tipo, puede moverse a la velocidad de la luz. La teoría electromagnética de Maxwell cumplía con todo estoy de hecho es la primera teoría relativista aunque nadie lo sabía antes que Einstein.
En la teoría general de la relatividad de Einstein la gravedad deja de ser una fuerza a distancia y se convierte en una distorsión del espacio y el tiempo que altera el movimiento de los objetos inmersos en él. La gravedad ya no se propaga de manera inmediata sino precisamente a la velocidad de la luz.
La relatividad general es una teoría sumamente completa, tanto que muchas veces es muy difícil separar los efectos físicos reales de falsos efectos reales de falsos efectos que surgen de la descripción matemática, en particular, efectos aparentes que se relacionan con el llamado "sistema de coordenadas".

domingo, 18 de octubre de 2015

Albert Einstein

Albert Einstein nació en la ciudad bávara de Ulm el 14 de marzo de 1879. Fue el hijo primogénito de Hermann Einstein y de Pauline Koch, judíos ambos, cuyas familias procedían de Suabia. Al siguiente año se trasladaron a Munich, en donde el padre se estableció, junto con su hermano Jakob, como comerciante en las novedades electrotécnicas de la época.
El pequeño Albert fue un niño quieto y ensimismado, y tuvo un desarrollo intelectual lento. El propio Einstein atribuyó a esa lentitud el hecho de haber sido la única persona que elaborase una teoría como la de la relatividad: "un adulto normal no se inquieta por los problemas que plantean el espacio y el tiempo", pues considera que todo lo que hay que saber al respecto lo conoce ya desde su primera infancia. Yo, por el contrario, he tenido un desarrollo tan lento que no he empezado a plantearme preguntas sobre el espacio y el tiempo hasta que he sido mayor».
En 1894, las dificultades económicas hicieron que la familia (aumentada desde 1881 con el nacimiento de una hija, Maya) se trasladara a Milán; Einstein permaneció en Munich para terminar sus estudios secundarios, reuniéndose con sus padres al año siguiente. En el otoño de 1896 inició sus estudios superiores en la Eidgenossische Technische Hochschule de Zúrich, en donde fue alumno del matemático Hermann Minkowski, quien posteriormente generalizó el formalismo cuatridimensional introducido por las teorías de su antiguo alumno.
En el siglo XVII, la sencillez y elegancia con que Isaac Newton había logrado explicar las leyes que rigen el movimiento de los cuerpos y el de los astros, unificando la física terrestre y la celeste, deslumbró hasta tal punto a sus contemporáneos que llegó a considerarse completada la mecánica. A finales del siglo XIX, sin embargo, era ya insoslayable la relevancia de algunos fenómenos que la física clásica no podía explicar. Correspondió a Albert Einstein superar tales carencias con la creación de un nuevo paradigma: la teoría de la relatividad, punto de partida de la física moderna.
Durante 1905, publicó cinco trabajos en los Annalen der Physik: el primero de ellos le valió el grado de doctor por la Universidad de Zúrich, y los cuatro restantes acabarían por imponer un cambio radical en la imagen que la ciencia ofrece del universo. De estos cuatro, el primero proporcionaba una explicación teórica, en términos estadísticos, del movimiento browniano, y el segundo daba una interpretación del efecto fotoeléctrico basada en la hipótesis de que la luz está integrada por cuantos individuales, más tarde denominados fotones. Los dos trabajos restantes sentaban las bases de la teoría restringida de la relatividad, estableciendo la equivalencia entre la energía E de una cierta cantidad de materia y su masa m en términos de la famosa ecuación E = mc², donde c es la velocidad de la luz, que se supone constante.