Archivo de la categoría: Ciencia y Tecnología

Chicle, la basura plástica que tiramos a toneladas

La goma de mascar de las marcas más populares se basa en un material sintético derivado del petróleo que se utiliza también para fabricar neumáticos. Es una fuente de grandes cantidades de polución plástica que apenas ha recibido atención, pero que no se recicla, ensucia las ciudades y contamina el medio ambiente.

Chicle

La goma de mascar es una gran fuente de contaminación plástica que no se recicla. / David Streit | Wikimedia Commons

Dice una leyenda urbana que un chicle tragado permanece durante siete años en el estómago. Es solo un bulo: el chicle transita por el tubo digestivo junto con los alimentos y se expulsa a su debido tiempo. Eso sí, entero, porque sí es cierto que su base de goma es tan indigerible como un neumático del mismo material.

Aunque esto no sea un problema para nosotros, sí lo es para el medio ambiente. Miles de toneladas de chicles desechados cada año no son una simple molestia; son una polución plástica indigesta para la naturaleza que no se recoge ni se recicla.

Originalmente el ‘chicle’ era la goma de savia de árbol que masticaban los aztecas y los mayas

El chicle se extendió por el mundo cuando las tropas estadounidenses en la Segunda Guerra Mundial lo llevaban como parte de sus raciones. Pero aunque se popularizase como un producto ligado a la cultura popular de EE UU, la costumbre de mascar alguna goma adhesiva es ancestral: ya se hacía en Europa hace al menos 5 700 años con la brea de corteza de abedul, probablemente con fines de higiene oral.

De hecho, originalmente el ‘chicle’ era la goma de savia de árbol que masticaban los aztecas y los mayas, y que en el siglo XIX el antiguo presidente mexicano Antonio López de Santa Anna trató de introducir en EE UU para la fabricación de ruedas. No tuvo éxito, pero su asistente en aquella aventura, el neoyorquino Thomas Adams, logró construir sobre el chicle un imperio de la goma de mascar, para el cual acuñó la marca Chiclets.

Gumdrop

Chicle original en un fruto del árbol ‘Manilkara zapota’ (sapodilla), Panamá. / Dick Culbert / Wikimedia Commons

Goma de petróleo

Curiosamente y aunque la industria del chicle creció gracias a la sustancia vegetal así llamada, las marcas mayoritarias en el mercado mundial terminaron sustituyendo este componente por otro más barato, el estireno-butadieno, un derivado sintético del petróleo cuyo uso principal es como goma para neumáticosLos chicles contienen también polietileno —el plástico de bolsas y botellas—, acetato de polivinilo —la cola blanca de los muebles— y otros polímeros, además de saborizantes, endulzantes y demás ingredientes.

A pesar de sus orígenes naturales, hoy la goma de mascar de los principales fabricantes no es sino un plástico petroquímico

Por lo tanto y a pesar de sus orígenes naturales, hoy la goma de mascar de los principales fabricantes no es sino un plástico petroquímico, que comparte los problemas de estos materiales sintéticos y no biodegradables. El problema que recientemente concentra gran parte de la atención y de las investigaciones es el de los microplásticos, diminutos fragmentos que ya contaminan todos los rincones del planeta y el organismo de los seres vivos.

Si bien aún no se han confirmado efectos nocivos de los microplásticos para la salud, el caso del chicle puede resultar especialmente preocupante por tratarse de algo que se mastica. La relación entre chicle y microplásticos aún apenas se ha estudiado, pero los primeros datos preliminares, aún no publicados formalmente, indican que existe.

Microplásticos en la saliva

A lo largo de un año, alguien que consuma de 160 a 180 chicles puede tragar unos 30 000 microplásticos

En la reunión de primavera de 2025 de la Sociedad Química Estadounidense, científicos de la Universidad de California en Los Ángeles presentaron resultados: al masticar chicle, cada gramo libera una media de 100 microplásticos a la saliva, aunque en algunos casos la cifra llega a los 600. Dado que cada pastilla de chicle pesa entre 2 y 6 gramos, una pieza grande puede producir en torno a 3 000 partículas. A lo largo de un año, alguien que consuma de 160 a 180 chicles puede tragar unos 30 000 microplásticos.

Después de probar cinco marcas de chicles de plástico sintético y otras tantas de goma natural, hubo un resultado en particular que sorprendió a los investigadores. “Nuestra hipótesis inicial era que las gomas sintéticas tendrían muchos más microplásticos porque la base es un tipo de plástico”, dice la coautora del trabajo Lisa Lowe. “Sorprendentemente, tanto las gomas sintéticas como las naturales liberan cantidades similares de microplásticos cuando las masticamos”. Además, los tipos de polímeros son también los mismos.

Ten conciencia medioambiental y no tires el chicle ni lo pegues a una pared

Sanjay Mohanty, Universidad de California en Los Ángeles

El director del estudio, Sanjay Mohanty, comenta que su propósito con esta investigación “no era alarmar a nadie”, recordando que aún no se sabe si los microplásticos son dañinos para nosotros. Pero subraya que “el plástico que se libera a la saliva es una pequeña fracción del plástico del chicle” y que, por lo tanto, es otra fuente de polución plástica. El consejo de Mohanty: “Ten conciencia medioambiental y no lo tires ni lo pegues a una pared”.

Cien mil toneladas de basura

Sin embargo, el consejo del investigador se enfrenta al hecho de que prácticamente aún no existen alternativas para desechar los chicles de un modo ecológico. Por supuesto que arrojarlos al suelo es la peor de las opciones; no solo es muy molesto para quien se tope con ellos —y una posible fuente de contagios bacterianos—, sino que también se cobra un gran coste de limpieza para los servicios públicos. Algunas estimaciones coinciden en que eliminar un chicle del pavimento es más caro de lo que costó comprarlo.

Chicle en el suelo

Los chicles arrojados al suelo son una molestia y una carga para los servicios públicos de limpieza. / PickPik

Lamentablemente y pese a ser el segundo tipo de residuo más abundante en las calles después de las colillas de cigarrillos, no existe un equivalente a los ceniceros para los chicles. La opción más responsable es envolverlos en papel antes de desecharlos de forma adecuada. De este modo no serán una molestia para otras personas ni una carga para los servicios de limpieza. Dado que normalmente no se reciclan, siempre terminarán siendo basura.

Cada año se fabrican 1,74 billones de pastillas de chicle, lo que se traduce en más de 2,4 millones de toneladas, de las cuales unas 730 000 toneladas son goma sintética

Y basura en grandes cantidades: según una estimación, cada año se fabrican 1,74 billones de pastillas de chicle, lo que se traduce en más de 2,4 millones de toneladas, de las cuales unas 730 000 toneladas son goma sintéticaOtra cifra que circula sitúa en 100 000 toneladas la cantidad anual de basura plástica debida a los chicles. Sea cual sea el volumen real, es inmenso. ¿Qué hacer para reducirlo?

Objetivo: reciclaje

Una solución son los chicles biodegradables. Hay marcas sin plásticos sintéticos basadas en productos vegetales, como las fórmulas tradicionales. Pero son pequeños fabricantes con difusión limitada y que deben competir con las grandes marcas más baratas. Según escribía en la revista Sustainability la experta en empresas Karen Paul, de la Universidad Internacional de Florida, “los valores de sostenibilidad pueden marcar una diferencia eficaz para consumibles como el chicle, pero solo si se alcanza suficiente visibilidad para los consumidores”.

El plástico reciclado, llamado Gum-tec, se está empleando para elaborar una gama creciente de productos que incluye vasos, lápices o suelas de zapatillas

Otra vía interesante es la abierta en 2011 por la diseñadora británica Anna Bullus y su empresa Gumdrop: recoger los chicles y reciclar el plástico que contienen. Bullus tuvo la idea de utilizar el material para confeccionar llamativos recipientes, con forma de globo y de color rosa, que se colocan en lugares públicos y donde se depositan los chicles usados. En los entornos donde se han situado, estos contenedores reducen en un 90 % los chicles arrojados al suelo.

Gumdrop

Un contenedor de la empresa Gumdrop para reciclar chicles, fabricado con plástico de chicle reciclado. / Gumdrop

Los recipientes de Gumdrop son un ejemplo de economía circular: cada contenedor lleno con unos 500 chicles sirve a su vez para fabricar tres nuevos recipientes. Además este plástico reciclado, llamado Gum-tec, se está empleando para elaborar una gama creciente de productos que incluye vasos, lápices o suelas de zapatillas, entre otros.

Fuente: SINC
Derechos: Creative Commons

La pérdida de la capacidad pulmonar comienza entre los 20 y los 25 años

Esta nueva investigación, realizada a partir de ocho cohortes de Europa y Australia, sugiere que el rendimiento de los pulmones empeora en esa franja de edad. El estudio proporciona nuevas pautas para evaluar y controlar la salud pulmonar a lo largo de la vida. 

Maqueta de unos pulmones

Por primera vez se ha estudiado la capacidad pulmonar en todas las fases de la vida. / Unsplash

Un estudio liderado por el Instituto de Salud Global de Barcelona (ISGlobal), centro impulsado por la Fundación “la Caixa”, en colaboración con el Clínic-IDIBAPS, ha identificado, por primera vez, cómo evoluciona la capacidad pulmonar desde la infancia hasta la vejez. Los resultados, publicados en The Lancet Respiratory Medicine, ofrecen un nuevo marco fundamental para evaluar la salud pulmonar.

Hasta ahora, se pensaba que la función pulmonar aumentaba hasta alcanzar su pico de capacidad alrededor de los 20-25 años, después del cual se estabilizaba. Asimismo, se creía que en la edad adulta tardía la función pulmonar comenzaba a deteriorarse debido al envejecimiento de los pulmones. Sin embargo, este modelo se basaba en estudios que no abarcaban todo el ciclo de vida.

Se ha identificado, por primera vez, cómo evoluciona la capacidad pulmonar desde la infancia hasta la vejez

En el reciente estudio, en cambio, ha utilizado un ‘diseño de cohorte acelerada’. Es decir, se han agrupado los datos de múltiples estudios de cohortes para cubrir el rango de edad deseado.

“Incluimos a más de 30.000 personas de entre 4 y 82 años procedentes de ocho estudios de cohortes de la población de Europa y Australia”, explica Judith Garcia-Aymerich, primera autora del estudio y codirectora del programa de Medio ambiente y salud a lo largo de la vida de ISGlobal.

Los parámetros de funcionalidad y capacidad pulmonar se evaluaron mediante espirometría forzada, una prueba en la que el paciente debe espirar todo el aire en el menor tiempo posible después de hacer una inspiración máxima. Además, se recogieron datos sobre tabaquismo activo y diagnósticos de asma.

Un declive temprano

El estudio ha demostrado que la función pulmonar crece en dos fases diferenciadas: una primera fase de crecimiento rápido durante la infancia y una segunda fase de crecimiento más lento hasta alcanzar el pico máximo.

La función pulmonar se evaluó a partir de dos parámetros. Uno es el volumen espiratorio forzado en un segundo (FEV1), que mide el volumen de aire espirado en el primer segundo de respiración forzada tras una respiración profunda. Y el otro, la capacidad vital forzada (FVC), que es la cantidad máxima de aire que una persona puede espirar sin límite de tiempo tras inspirar profundamente.

En las mujeres, el pico de FEV1 se alcanza alrededor de los 20 años, mientras que en los hombres ocurre a los 23 años. Sorprendentemente, el estudio no ha encontrado evidencia de una fase de estabilidad después de este pico.

Nuestros datos muestran que el descenso de la función pulmonar comienza inmediatamente después de alcanzar el valor máximo

Judith Garcia-Aymerich, codirectora del programa de Medio ambiente y salud a lo largo de la vida de ISGlobal

“Modelos anteriores sugerían una fase de estabilidad hasta los 40 años de edad, pero nuestros datos muestran que el descenso de la función pulmonar comienza mucho antes de lo que se creía, inmediatamente después de alcanzar el valor máximo”, explica Garcia-Aymerich.

Factores que aceleran el deterioro

El análisis revela que tanto el asma persistente como el tabaquismo influyen en la función pulmonar, aunque de manera distinta a lo que se creía. Las personas con asma persistente alcanzan un pico de FEV1 más temprano y tienen niveles más bajos en todas las etapas de la vida, mientras que el tabaquismo está asociado a una caída más rápida de la función pulmonar a partir de los 35 años.

El tabaquismo está asociado a una caída más rápida de la función pulmonar a partir de los 35 años

Estos resultados subrayan la importancia de promover la salud respiratoria y de realizar un seguimiento temprano de la función pulmonar en las primeras etapas de la vida mediante la espirometría.

“La detección temprana de una baja función pulmonar puede permitir intervenciones para prevenir enfermedades respiratorias crónicas en la edad adulta”, concluye Rosa Faner, investigadora de la Universidad de Barcelona y del Clínic-IDIBAPS y última autora del estudio.

Referencia:

Garcia-Aymerich, J. et al. “General Population-Based Lung Function Trajectories Over The Life Course. An Accelerated Cohort Study”. The Lancet Respiratory Medicine (2025).

Fuente: ISGlobal
Derechos: Creative Commons.

Un bebé con una enfermedad rara, primer paciente tratado mediante terapia génica

KJ es el nombre del primer paciente en recibir un tratamiento experimental basado en edición genética CRISPR, un tipo de tecnología para modificar el ADN en células vivas. Este hallazgo es un paso más para el desarrollo de terapias personalizadas con el objetivo de ayudar a pacientes que han nacido con alguna enfermedad rara. 

Un bebé con una enfermedad rara, primer paciente tratado mediante terapia génica

Los doctores Kiran Musunuru y Rebecca Ahrens-Nicklas con el paciente KJ. / Imagen cedida por el Hospital Infantil de Filadelfia

Un bebé nacido con una enfermedad metabólica rara ha sido el primero en recibir una terapia experimental y personalizada basada en edición genética CRISPR, a la que ha respondido positivamente, aunque se necesita un seguimiento más prolongado para evaluar plenamente los beneficios.

Deficiencia grave de carbamoil fosfato sintetasa 1 (CPS1) es el nombre de la enfermedad genética incurable con la que nació el niño, identificado como KJ en un estudio que publica The New England Journal of Medicine.

El bebé, que recibió la primera dosis el pasado febrero, cuando tenía entre seis y siete meses, ha sido tratado “con éxito” en el Hospital Infantil de Filadelfia (EE. UU.), que firma el estudio junto a la Universidad de Pensilvania, y ahora “está creciendo bien y mejorando”, indicó el centro médico.

El equipo empezó a colaborar para estudiar la viabilidad de crear terapias de edición genética personalizadas para pacientes individuales en 2023

“Aunque KJ necesitará un seguimiento cuidadoso durante el resto de su vida, nuestros resultados iniciales son bastante prometedores”, destacó Rebecca Ahrens-Nicklas, del Hospital de Pensilvania y una de las firmantes del artículo.

Los pacientes con deficiencia de CPS1 se suelen tratan con un trasplante de hígado, para lo que deben estar médicamente estables y tener edad suficiente para hacer frente a la intervención, pero en ese tiempo existe el riesgo de un rápido fallo del órgano.

El equipo empezó a colaborar para estudiar la viabilidad de crear terapias de edición genética personalizadas para pacientes individuales en 2023, basándose en años de investigación sobre trastornos metabólicos raros.

Finalmente se centraron en la variante CPS1, un trastorno poco frecuente del metabolismo del ciclo de la urea debido a la falta de una enzima en el hígado y que comienza poco después del nacimiento.

Terapia génica CRISPR

La terapia CRISPR es una tecnología avanzada de edición de genes que permite realizar cambios precisos en el ADN dentro de las células vivas.

En el caso de KJ, lo que hizo fue revertir y corregir la mutación metabólica que sufría el infante, según explica a SINC el científico del CSIC en el Centro Andaluz de Biología del Desarrollo (CABD) Miguel Ángel Moreno Mateos y que no ha participado en el estudio.

“La terapia génica sirve para dirigir el tratamiento específicamente sobre la anomalía y revertirla con la mayor eficiencia y seguridad posible”, comenta el investigador.

En el estudio, los investigadores modificaron la parte genética del recién nacido que causaba la enfermedad, para así recuperar la variante sana del gen y más común en la población.

En el estudio, los investigadores modificaron la parte genética del recién nacido que causaba la enfermedad

Hasta ahora, lo más notable que se había conseguido con este tipo de terapia en humanos había sido la reversión de enfermedades relacionadas con las células sanguíneas, como por ejemplo la anemia falciforme o la beta-talasemia.

Para el científico, lo más remarcable ha sido que “se ha generado un protocolo de actuación rapídisimo con el bebé, al ser una enfermedad devastadora”, puntualiza. El objetivo, a su juicio, es alargar la vida del pequeño y mejorar su bienestar hasta que pueda recibir un transplante.

“Esto hace una década era el sueño de muchos investigadores. Pero en los últimos años ha habido una serie de hitos que demuestran que estos deseos se están cumpliendo”, dice.

No obstante, advierte que hay que proceder con cautela porque son tratamientos personalizados y difíciles de estandarizar para todas las enfermedades raras que existen.

Una enfermedad que afecta al cerebro e hígado

Durante la descomposición normal de las proteínas se produce amoniaco y el cuerpo lo convierte en urea, que se excreta por la orina, pero con la variante CPS1 se acumula hasta alcanzar un nivel tóxico que puede causar daños, sobre todo, en el cerebro y el hígado.

KJ pasó los primeros seis meses de su vida en el hospital sujeto a una dieta muy restrictiva, ese fue el tiempo que tardó el equipo en diseñar una terapia administrada por nanopartículas lipídicas en el hígado para corregir la enzima defectuosa.

Ha podido recuperarse de algunas enfermedades típicas de la infancia, como el rinovirus

Tras la dosis inicial, recibió otras dos en marzo y abril sin efectos secundarios graves y, en el poco tiempo transcurrido, ha tolerado un aumento de las proteínas alimentarias y ha necesitado menos medicación, según señaló el hospital en un comunicado. 

Además, ha podido recuperarse de algunas enfermedades típicas de la infancia, como el rinovirus, sin que se acumulara amoniaco en su organismo.

Una terapia personalizada

Por ahora queda mucho trabajo por hacer, pero los investigadores son cautelosamente optimistas sobre la evolución del pequeño, según los Institutos Nacionales de Salud (NIH) de EE. UU., que fue uno de los financiadores del estudio.

Este es el primer caso conocido de un medicamento personalizado basado en esta técnica, el cual se diseñó para que se dirigiera a células no reproductoras, de modo que los cambios solo afectaran al pequeño.

Este es el primer caso conocido de un medicamento personalizado basado en esta técnica

El equipo espera que este niño “sea el primero de muchos que se beneficien de una metodología que puede adaptarse a las necesidades” de cada uno, apuntó la autora Ahrens-Nicklas en el comunicado.

El también firmante del estudio Kiran Musunuru deseó que otros investigadores reproduzcan este método “para muchas enfermedades raras y den a muchos pacientes una oportunidad justa de llevar una vida sana”.

Comentando el artículo en el que no participó, el investigador del Centro Nacional de Biotecnología (CNB-CSIC) Lluís Montoliu, señaló que es “un caso paradigmático” de desarrollo de una terapia ad hoc para una mutación de una sola persona, pero “difícilmente escalable o universalizable, dado que cada paciente será portador de mutaciones diferentes”.

Montoliu indicó a la plataforma Science Media Centre que la “cuestión importante” que no aborda el artículo es la accesibilidad y la asequibilidad de estos tratamientos para las familias con niños que tengan estas enfermedades.

Referencia:

Kiran Musunuru, M.D. et al. Patient-Specific In Vivo Gene Editing to Treat a Rare Genetic Disease. The New England Journal of Medicine2025

Fuente: EFE
Derechos: Creative Commons.

La pérdida de la capacidad pulmonar comienza entre los 20 y los 25 años

Esta nueva investigación, realizada a partir de ocho cohortes de Europa y Australia, sugiere que el rendimiento de los pulmones empeora en esa franja de edad. El estudio proporciona nuevas pautas para evaluar y controlar la salud pulmonar a lo largo de la vida. 

Maqueta de unos pulmones

Por primera vez se ha estudiado la capacidad pulmonar en todas las fases de la vida. / Unsplash

Un estudio liderado por el Instituto de Salud Global de Barcelona (ISGlobal), centro impulsado por la Fundación “la Caixa”, en colaboración con el Clínic-IDIBAPS, ha identificado, por primera vez, cómo evoluciona la capacidad pulmonar desde la infancia hasta la vejez. Los resultados, publicados en The Lancet Respiratory Medicine, ofrecen un nuevo marco fundamental para evaluar la salud pulmonar.

Hasta ahora, se pensaba que la función pulmonar aumentaba hasta alcanzar su pico de capacidad alrededor de los 20-25 años, después del cual se estabilizaba. Asimismo, se creía que en la edad adulta tardía la función pulmonar comenzaba a deteriorarse debido al envejecimiento de los pulmones. Sin embargo, este modelo se basaba en estudios que no abarcaban todo el ciclo de vida.

Se ha identificado, por primera vez, cómo evoluciona la capacidad pulmonar desde la infancia hasta la vejez

En el reciente estudio, en cambio, ha utilizado un ‘diseño de cohorte acelerada’. Es decir, se han agrupado los datos de múltiples estudios de cohortes para cubrir el rango de edad deseado.

“Incluimos a más de 30.000 personas de entre 4 y 82 años procedentes de ocho estudios de cohortes de la población de Europa y Australia”, explica Judith Garcia-Aymerich, primera autora del estudio y codirectora del programa de Medio ambiente y salud a lo largo de la vida de ISGlobal.

Los parámetros de funcionalidad y capacidad pulmonar se evaluaron mediante espirometría forzada, una prueba en la que el paciente debe espirar todo el aire en el menor tiempo posible después de hacer una inspiración máxima. Además, se recogieron datos sobre tabaquismo activo y diagnósticos de asma.

Un declive temprano

El estudio ha demostrado que la función pulmonar crece en dos fases diferenciadas: una primera fase de crecimiento rápido durante la infancia y una segunda fase de crecimiento más lento hasta alcanzar el pico máximo.

La función pulmonar se evaluó a partir de dos parámetros. Uno es el volumen espiratorio forzado en un segundo (FEV1), que mide el volumen de aire espirado en el primer segundo de respiración forzada tras una respiración profunda. Y el otro, la capacidad vital forzada (FVC), que es la cantidad máxima de aire que una persona puede espirar sin límite de tiempo tras inspirar profundamente.

En las mujeres, el pico de FEV1 se alcanza alrededor de los 20 años, mientras que en los hombres ocurre a los 23 años. Sorprendentemente, el estudio no ha encontrado evidencia de una fase de estabilidad después de este pico.

Nuestros datos muestran que el descenso de la función pulmonar comienza inmediatamente después de alcanzar el valor máximo

Judith Garcia-Aymerich, codirectora del programa de Medio ambiente y salud a lo largo de la vida de ISGlobal

“Modelos anteriores sugerían una fase de estabilidad hasta los 40 años de edad, pero nuestros datos muestran que el descenso de la función pulmonar comienza mucho antes de lo que se creía, inmediatamente después de alcanzar el valor máximo”, explica Garcia-Aymerich.

Factores que aceleran el deterioro

El análisis revela que tanto el asma persistente como el tabaquismo influyen en la función pulmonar, aunque de manera distinta a lo que se creía. Las personas con asma persistente alcanzan un pico de FEV1 más temprano y tienen niveles más bajos en todas las etapas de la vida, mientras que el tabaquismo está asociado a una caída más rápida de la función pulmonar a partir de los 35 años.

El tabaquismo está asociado a una caída más rápida de la función pulmonar a partir de los 35 años

Estos resultados subrayan la importancia de promover la salud respiratoria y de realizar un seguimiento temprano de la función pulmonar en las primeras etapas de la vida mediante la espirometría.

“La detección temprana de una baja función pulmonar puede permitir intervenciones para prevenir enfermedades respiratorias crónicas en la edad adulta”, concluye Rosa Faner, investigadora de la Universidad de Barcelona y del Clínic-IDIBAPS y última autora del estudio.

Referencia:

Garcia-Aymerich, J. et al. “General Population-Based Lung Function Trajectories Over The Life Course. An Accelerated Cohort Study”. The Lancet Respiratory Medicine (2025).

Fuente: ISGlobal
Derechos: Creative Commons.

Simulan un universo inestable con computación cuántica

Un equipo científico europeo ha logrado recrear por primera vez un universo en estado de falso vacío mediante un annealer cuántico, un tipo especializado de ordenador diseñado para resolver problemas de optimización. La investigación abre nuevas vías para explorar fenómenos fundamentales del cosmos desde la física teórica.

ordenador cuántico annealer

El ordenador cuántico annealer desarrollado por D-Wave Quantum. / D-Wave Quantum

Investigadores de tres países europeos han publicado un estudio en el que afirman haber obtenido información valiosa sobre la desintegración del falso vacío, un proceso vinculado al origen del cosmos y al comportamiento de las partículas a escalas muy pequeñas.

Según los científicos de la Universidad de Leeds (Reino Unido), el Instituto de Ciencia y Tecnología de Austria (ISTA) y el Centro de Supercomputación de Jülich (Alemania), esta primera simulación es un paso adelante en la comprensión de la dinámica cuántica. Entender la física fundamental del universo es complejo, dada su inmensidad, pero la computación cuántica puede ayudar a desentrañar las leyes que lo rigen.

Entender la física fundamental del universo es complejo por su inmensidad, pero la cuántica puede ayudar a desentrañar las leyes que lo rigen

En ese sentido, el autor principal del estudio, Zlatko Papic, catedrático de Física Teórica en Leeds, señala que este tipo de experimentos controlados son importantes para comprender la estructura y los procesos del universo, y así determinar sus escalas temporales.

“Es emocionante contar con estas nuevas herramientas que podrían servir como un laboratorio práctico para comprender los procesos dinámicos fundamentales del universo”, indica Papic.

Un tipo especializado de ordenador cuántico

Los investigadores de los tres centros utilizaron un sistema con 5564 cúbits —los componentes básicos de la computación cuántica— para imitar las propiedades de un universo metaestable y analizar cómo estas variaban en un modelo unidimensional.

El experimento se llevó a cabo gracias a un annealer cuántico, una máquina desarrollada por D-Wave Quantum para resolver problemas complejos de optimización. Aunque emplea miles de cúbits, no se considera un ordenador cuántico universal, sino un dispositivo especializado cuya arquitectura está diseñada para encontrar soluciones óptimas dentro de espacios de posibilidad muy grandes.

El equipo se propuso estudiar un modelo del universo sencillo dadas las limitaciones técnicas de la computación cuántica

El equipo estudió un modelo del universo sencillo dadas las limitaciones técnicas de la computación cuántica

 “Estamos intentando desarrollar sistemas que nos permitan realizar experimentos sencillos para estudiar este tipo de cosas. El uso del annealer nos permite observarlos en tiempo real, de modo que podemos ver realmente qué está sucediendo”, explica Papic.

Por otro lado, «al aprovechar las capacidades de la cuántica, nuestro equipo ha abierto la puerta al estudio de sistemas cuánticos de no equilibrio y transiciones de fase que de otro modo serían difíciles de explorar con los métodos informáticos tradicionales», indica Jaka Vodeb, del Centro de Supercomputación de Jülich,

La teoría del universo metaestable

Hace aproximadamente 50 años, se propuso un modelo en la teoría cuántica de campos según el cual el cosmos podría estar contenido en un falso vacío. Esto supondría que, pese a aparentar estabilidad, su energía podría decaer y transitar hacia una fase estable definitiva.

En física se conoce a esta fase como metaestabilidad, y durante la transición al estado final, los expertos apuntan que la estructura del universo sufriría un cambio catastrófico. Predecir cuándo ocurrirá es complejo, pero se cree que probablemente suceda en un periodo astronómicamente largo, de millones de años.

El modelo simula un universo en falso vacío, donde burbujas que se forman e interactúan provocan el fin de esa aparente estabilidad

La estructura del modelo se basa en la interacción de burbujas, similares a las que se forman en el vapor de agua enfriado por debajo de su punto de condensación. Su formación y propagación serían el desencadenante que rompería ese estado de falso vacío, es decir, de falsa estabilidad.

Ahora, la simulación cuántica ha permitido a los científicos observar la intrincada ‘danza’ de las burbujas en tiempo real. Las observaciones revelaron que la dinámica no consiste en eventos aislados, sino en interacciones complejas, incluyendo cómo las burbujas más pequeñas pueden influir en las más grandes.

Los resultados han sido publicados en la revista Nature Physics, donde el equipo afirma que sus hallazgos ofrecen nuevas perspectivas sobre cómo pudieron haber ocurrido estas transiciones poco después del Big Bang.

Simular el modelo estándar universal

El estudio se ha realizado con un modelo simple de un universo unidimensional. Para alcanzar las tres dimensiones, se necesitarían muchas más extensiones cuánticas aún no disponibles. Además, el Modelo Estándar Universal es más complejo e involucra partículas y campos de gauge que no están presentes en el modelo de metaestabilidad.

“Los dispositivos cuánticos no simulan directamente el universo, sino solo su modelo simplificado, que puede describirse en términos de cúbits y puertas cuánticas que operan sobre ellos. Estos modelos deben ser lo suficientemente simples para poder codificarse eficientemente en términos de cúbits”, señala Zlatko Papic, a SINC.

Nuestra simulación reproduce un modelo básico, un toy model, pero permite observar fenómenos imposibles de estudiar directamente en el universo real por las escalas de tiempo astronómicas implicadas

Zlatko Papic, lider del estudio (Universidad de Leeds)

En este sentido Papic explica: “Nuestra simulación se basa en un modelo muy básico, lo que en física llamamos un toy model —una representación simplificada que no reproduce el universo real, pero permite estudiar dinámicas esenciales de forma controlada. Estos experimentos no son posibles en el universo real debido a las escalas astronómicas que implican”.

El investigador subraya que “las simulaciones cuánticas para el modelo estándar son mucho más desafiantes, algo que queda pendiente para futuros trabajos que, con suerte, tendrán implicaciones más directas en las teorías ‘verdaderas’ que rigen nuestro universo”.

No obstante, los autores opinan que sus hallazgos demuestran que comprender el origen y el destino del universo no siempre requiere experimentos multimillonarios en instalaciones especializadas de alta energía, como el Gran Colisionador de Hadrones (LHC) del CERN.

“Este tipo de experimentos y los realizados por el CERN definitivamente son complementarios, ya que tienen objetivos y alcances completamente diferentes. Esto también se refleja en el término ‘simulación cuántica’, que implica que se enfocan en un modelo simplificado de fenómenos físicos, en lugar de la realidad física en sí misma”, concluye Papic.

Estructura y evolución del cosmos

Las simulaciones cuánticas pueden ayudar a comprender mejor la estructura y evolución del universo. Los fenómenos cosmológicos se desarrollan a lo largo de escalas de tiempo astronómicas —de miles de millones de años— y solo pueden observarse.

Sin embargo, agrega Papic, “las simulaciones cuánticas permiten manipular directamente el sistema bajo estudio, por ejemplo, investigar qué sucede si se ajustan ligeramente ciertos parámetros, así como inducir dinámicas que podrían no ocurrir en circunstancias normales”.

Este estudio también ayuda a mejorar la eficiencia de la cuántica, por ejemplo, en la gestión de errores o en la realización de cálculos complejos

Según los autores, las implicaciones prácticas de este estudio también comprenden la mejora de la eficiencia de esta tecnología, por ejemplo, en la gestión de errores o en la realización de cálculos complejos.

También destacan que el potencial de los ordenadores cuánticos podría extenderse a otras disciplinas ajenas a la física teórica.

“Estos avances no solo amplían los límites del conocimiento científico, sino que también allanan el camino para futuras tecnologías que podrían revolucionar campos como la criptografía, la ciencia de los materiales y la informática energéticamente eficiente”, concluye Vodeb.

Referencia:

Papic, Z. et. al. “Stirring the false vacuum via interacting quantized bubbles on a 5,564-qubit quantum annealer”. Nature Physics (2025)

Fuente: SINC
Derechos: Creative Commons

Pol Forn-Díaz, director del grupo de Tecnología de Computación Cuántica en el IFAE: “Los ordenadores cuánticos serán mucho más eficientes que los actuales centros de supercomputación”

La tecnología de la computación cuántica busca solucionar problemas que las computadoras clásicas no pueden abordar eficazmente. En un mundo cambiante como el nuestro, los retos son cada vez más complejos y precisan de una gran capacidad de procesamiento de datos. El investigador del Instituto de Física de Altas Energía habla con SINC sobre el futuro de la cuántica y su impacto energético

Pol Forn-Díaz

El físico Pol Forn-Díaz dirige el grupo de Tecnología de Computación Cuántica en el IFAE. / Foto cedida por el autor

El grupo de investigación que dirige Pol Forn-Díaz en el Instituto de Física de Altas Energía (IFAE) en Barcelona desarrolla tecnología de superconductores para la computación cuántica: circuitos que hay que fabricar en entornos típicos de microelectrónica y nanoelectrónica, es decir, salas blancas. Estos circuitos tienen que ponerse en condiciones de muy baja temperatura para poder controlar su estado cuántico.

Son un grupo pequeño de investigación básica, que busca cómo mejorar la calidad de estos circuitos. Trabajan en diseños alternativos a los que se vayan a utilizar convencionalmente, para encontrar nuevas funcionalidades. “La tecnología de la computación cuántica está avanzando mucho, pero aún requiere de desarrollos fundamentales para la mejora de la calidad de los bits cuánticos. Los cúbits, que al final es lo que dicta la calidad del procesador, requieren estudiar materiales y nuevas técnicas de control de medida. En eso estamos trabajamos en el IFAE”, explica desde su laboratorio de la ciudad condal.

La tecnología de la computación cuántica está avanzando mucho, pero aún requiere de desarrollos fundamentales para la mejora de la calidad de los bits cuánticos

Forn-Díaz es, además, uno de los cinco fundadores de una empresa pionera en Europa: Qilimanjaro Quantum Tech, una spin-off de la Universidad de Barcelona, el Barcelona Supercomputing Center y el IFAE, que trabaja para la construcción de ordenadores cuánticos comerciales. Hablamos con él sobre la evolución de este campo de investigación, el desarrollo de la tecnología asociada y su impacto ambiental.

¿Qué tipo de energía utiliza principalmente este tipo de tecnología?

Requiere, por un lado, refrigeración criogénica, que tiene un impacto energético, ya que es necesario mantener estos circuitos a muy bajas temperaturas. Después, para para hacer el control de los de los circuitos, utilizamos básicamente señales que están en el rango de las microondas, o sea, de los gigahercios, pero con muy bajas potencias y con un impacto energético menor.

¿Qué es lo que más consume?

Por un lado, mantener el sistema frío y, evidentemente, también la producción del chip, porque se tiene que realizar utilizando toda la maquinaria de salas blancas, con el consiguiente coste e impacto ambiental.

¿Será menor el consumo energético de los computadores cuánticos si se los compara con los superordenadores clásicos?

Aquí hay que hacer una advertencia, porque si buscas en la literatura científica o las noticias al respecto, vas a encontrar de todo. Hablamos de algo que va a ocurrir en el futuro, ya que hoy los prototipos de ordenador cuántico que existen, los más grandes, tienen entre 100 y 1 000 cúbits. Y esto utilizando métodos no muy optimizados de cómo poner todos estos cúbits dentro de un criostato, es decir, con todos los cables y toda la electrónica. Esto solo lo han podido hacer IBM y Google, y un equipo en China. A medida que se va alcanzando un nuevo número de cúbits, también se va rediseñando el sistema y se va optimizando.

Los ordenadores cuánticos se cree que van a ser como un nuevo tipo de acelerador de computación

¿Cuál es la previsión teniendo en cuenta todas estas variables?

Se prevé que sí van a ser mucho más eficientes energéticamente que los centros de supercomputación o computación de alto rendimiento (HPCS). Actualmente, los ordenadores cuánticos se cree que van a ser como un nuevo tipo de acelerador de computación. En los centros de supercomputación existen procesadores con CPU y con GPU. Las GPU son las unidades de procesamiento gráfico que ahora se utilizan para inteligencia artificial. En los procesadores cuánticos estaríamos hablando de QPU (Unidad de Procesamiento Cuántico, por sus siglas en inglés), que va a ser más eficiente para ciertos cálculos, pero no se van a encargar de hacerlo todo, porque para eso ya están los ordenadores tradicionales.

De ahí que sean más eficientes

Serán un complemento para atacar ciertos problemas matemáticos, que hoy no se pueden tratar. Esa es la idea, que estas unidades de procesamiento cuánticas no tengan un consumo muy grande. No disipas calor en el chip, porque la superconductividad te permite procesar señales eléctricas sin disipar energía.

¿Qué es lo que ocurre en el caso de los superordenadores?

En los circuitos eléctricos habituales, la energía se transforma de una señal eléctrica en calor, que es lo que ocurre en los transistores de los procesadores tradicionales, como nuestros teléfonos, portátiles y superordenadores. Se calientan porque están gastando la energía eléctrica en calor y, en los superordenadores, una parte muy importante de la energía se va en enfriarlos a 40 ºC, porque si no se quemarían. La otra parte se va en ponerlos en marcha. La tecnología de enfriamiento va avanzando según la demanda.

Mucha de la energía va dedicada a enfriarlos y la otra parte en ponerlos en marcha. La tecnología de enfriamiento va avanzando según la demanda

¿Qué otras tecnologías se utilizan para minimizar su consumo?

Están empezando a aparecer modelos de criostatos cada vez más pequeñitos y adaptados a la demanda real de estos ordenadores cuánticos. En el futuro es posible que no requieran de equipos muy grandes, algo que también ocurre con los superordenadores. No estoy trabajando en el campo de estos últimos, pero sí se escucha que los nuevos diseños van encarados a optimizar el gasto energético, que no parece que sea algo fácil.

Con los ordenadores cuánticos la idea es que ya entren con otro nivel de consumo y con gran ahorro energético. Hay gente que habla de la ventaja cuántica en este sentido o de la ‘supremacía cuántica’.

¿Y respecto a los materiales y los procesos de extracción asociados?

Los superconductores no requieren materiales muy especiales. De hecho, se han hecho de aluminio, que es un material que se encuentra muy fácilmente.
De sustratos se utilizan típicamente silicio o zafiro, que son también materiales industriales. No requieren de una minería muy específica como el litio o el cobalto que se utilizan en baterías. Si alguien descubre que incluyendo otro material mejoran, la cosa cambiaría, pero dudo que sea así. Hoy nada apunta a que eso vaya a ocurrir.

Los superconductores no requieren materiales muy especiales. De hecho, se han hecho de aluminio, que se encuentra muy fácilmente

¿Los cálculos cuánticos podrían aportar soluciones respecto a los desafíos climáticos y medioambientales del futuro?

La respuesta genérica sería que sí, que van a aportar ventajas. Podrán resolver problemas matemáticos de cierto tipo, como los que se llaman de optimización. El ejemplo típico se hace con los repartidores de paquetes. Tienen que ir a de un punto a otro y optimizar para no gastar mucho combustible, además de forma continua, porque durante el día van llegando nuevos paquetes. Esto requiere un potencial de cálculo importante. Pero depende mucho de cada problema. Es caso a caso y es muy difícil dar una receta global.

¿Pasa lo mismo con los procesos químicos?

Este es un problema cuántico en sí. Es decir, podrías calcular en un orden cuántico, de los que no existen por ahora, la evolución de un sistema y hacer predicciones. Si existe este gas y este otro, me sale este resultado final. Puede tener impacto en baterías o captura de CO2.

También es aplicable al caso de los abonos y la absorción del nitrógeno, que actualmente supone un proceso que requiere temperaturas muy elevadas. Tiene el potencial de descubrir este tipo de nuevos procesos, que puedan hacerse de forma más eficiente.

Si nos referimos a un ordenador cuántico pequeño, de hasta 1 000 cúbits, gastará unos 10 kW al día, lo mismo que tres o cuatro familias

¿Existen algoritmos cuánticos que hayan demostrado estas ventajas?

Se trataría de utilizar el ordenador cuántico como un simulador cuántico. Depende mucho de cómo de bien puedas simular tu sistema y modelizarlo para que te dé el resultado esperado. Ahí está menos definido. Lo que sí está demostrado es que un ordenador cuántico puede emular un sistema físico real.

¿Se trabajará en medir el impacto ambiental que tendrán?

Estoy seguro de que sí cuando existan, porque ahora mismo estamos hablando de prototipos. Si nos referimos a un ordenador cuántico pequeño, de hasta 1 000 cúbits, gastará unos 10 kW al día, lo mismo que tres o cuatro familias. En el caso de los superordenadores hablamos de consumo en megavatios, y eso ya es lo que gasta un pueblo o una ciudad pequeña. En el equipo de Qilimanjaro se ha hecho un documento técnico a este respecto.

¿Es comparable con la IA?

Los cálculos que se pueden hacer ahora mismo con ChatGPT están aún muy lejos de lo que podrían hacer los ordenadores cuánticos. De momento no son comparables, pero sí en el futuro, cuando vayan apareciendo máquinas cuánticas que estén dando un servicio útil, es decir, que ya tengan un tamaño grande. Vaticino que esto podría ocurrir en diez años o incluso antes.

He visto que colaboran con el laboratorio subterráneo de Canfranc para investigar la radiación. ¿En qué consiste?

Es una colaboración académica con el IFAE de un proyecto nacional que coordinamos. Estudiamos concretamente el impacto de la radiación ionizante, es decir, la radioactividad ambiental que tenemos en nuestro entorno. No nos afecta directamente porque es de muy baja la intensidad, pero sí a estos chips, que son tan sensibles que detectan todo lo que ocurre a su alrededor.

Cada vez que pasa un rayo altamente energético o una partícula energética —incluso rayos cósmicos que se originan en el espacio— y entran en la atmósfera, se van desintegrando. Lo que aterriza en la superficie son partículas que van muy deprisa, pero que se pueden ver. En este proyecto estudiamos este fenómeno con el Canfranc porque está dentro de una montaña, que hace de barrera para parar estos rayos cósmicos.

Estudiamos concretamente el impacto de la radiación ionizante, es decir, la radioactividad ambiental que tenemos en nuestro entorno. No nos afecta directamente porque es de muy baja la intensidad, pero sí a estos chips

¿Tiene alguna aplicación?

Lo utilizan sobre todo la gente del mundo de la física de partículas para hacer experimentos que buscan materia oscura y que tienen una señal muy débil y no pueden tener ningún tipo de ruido ambiental. A nosotros nos interesa examinar cómo se comportan estos chips en ausencia de esta radiación ambiental.

¿Existe algún impedimento que pudiese detener el desarrollo de los computadores cuánticos?

No hay nada que permita pensar que esto se va a detener, porque no hay ninguna barrera para esta tecnología en concreto. En el momento en que entren en uso y estén, por ejemplo, en la nube para poder conectarse, seguro que va a haber estudios de impacto energético concretos.

¿Cuándo se convertirán en una herramienta realmente útil?

Hoy en día se han demostrado algunos cálculos con ordenadores cuánticos, como los de Google, que superan a los superordenadores, pero son problemas muy académicos y específicos donde los ordenadores cuánticos tienen ventaja de salida y estos algoritmos no tienen ninguna utilidad práctica, que se sepa. El reto es que puedas hacer algo útil, que significa atacar problemas reales del mundo, que son enormes y requieren de máquinas muy grandes.

Se van a necesitar centenares de miles de cúbits. La predicción es que en los próximos cinco años se va a llegar a las decenas de miles y es probable que ya existan máquinas en 2030 de 10 000 cúbits.  Tendrán potencial de cálculo, aún no suficiente para resolver cualquier problema, pero sí para para hacer cosas interesantes posiblemente útiles.

Fuente: SINC
Derechos: Creative Commons

Los cálculos de la vida en la Tierra harían más resistentes los ordenadores cuánticos

Un estudio propone que los seres vivos tienen la capacidad de computar de manera subatómica y procesar información en una millonésima de microsegundo. Este hallazgo puede ayudar al desarrollo de equipos cuánticos más autónomos y resilientes.

Los cálculos de la vida en la Tierra harían más resistentes los ordenadores cuánticos

Se pueden encontrar redes de triptófano en las neuronas y en otros organismos. / Freepik

La vida en la Tierra es capaz de realizar operaciones complejas en entornos cálidos y caóticos. Esto se debe a que las células emplean una molécula llamada triptófano para procesar información a través de la luz. Ahora, según un estudio, se cree que esta habilidad natural puede ayudar al desarrollo de ordenadores cuánticos más resistentes.

Se pueden encontrar redes de triptófano en las neuronas y en otros organismos como virus, cilios, flagelos o células superiores

La investigación se publica en Science Advances y muestra que las redes de este aminoácido son capaces de absorber las partículas lumínicas y reenviarlas con una amplitud de onda más larga y fácil de asimilar en menos de una millonésima de microsegundo.  

“La biología está llena de arquitecturas como esta”, afirma a SINC el primer autor de este estudio e investigador de la Universidad de Howard, Phillip Kurian. Según el científico, se pueden encontrar redes de triptófano estructuras celulares como cilios y flagelos, en las neuronas o en virus.

Fibra óptica en las células

En concreto, estas estructuras funcionan como un ‘cable de fibra óptica’, ya que tienen la capacidad de enviar información mucho más rápido de lo que permiten los procesos químicos en las células.

Esta especie de cúbit –unidad básica de información cuántica parecida al bit en la computación tradicional– absorbe la luz y la vuelve a emitir de manera veloz

Esta especie de cúbits —unidades básicas de información cuántica parecidas al bit en la computación tradicional— absorben la luz y la vuelven a emitir de manera veloz, lo que permite a la vida calcular en poco tiempo, según explica el investigador. 

Al conglomerarse en estructuras moleculares, generan estados superradiantes capaces de procesar «la información de los fotones a velocidades de un picosegundo” (millonésima de microsegundo). “Este procesamiento es lo que produce el efecto cuántico”,  asegura Kurian.

Computación cuántica más resistente

En este sentido, los ordenadores cuánticos podrían aprender mucho de cómo transfiere información la biología en la Tierra.

“La vida ha encontrado una forma de gestionar con coherencia sus señales para superar el ruido térmico del entorno”, enfatiza Kurian a SINC.

Esto significa que, aunque existan pequeñas perturbaciones causadas por el calor del ambiente, los seres vivos son capaces de administrar información sin perderla o distorsionarla. La razón de todo ello es que los fotones o partículas de luz se pueden compartir de forma simultánea entre varias moléculas o cúbits moleculares.

En la biología existen estados en los que si se elimina un cúbit todavía se puede mantener la coherencia entre los demás restantes

En el mundo de los ordenadores cuánticos, ya han recreado los llamados estados W —energía compartida de forma síncrona— en dispositivos de nanofotónica, aunque necesitan condiciones controladas como temperaturas extremadamente bajas. 

Además, en la biología existen estados en los que si se elimina un cúbit todavía se puede mantener la coherencia entre los demás restantes. Esto todavía no es posible en el terreno de la ingeniería informática.

Según el autor del estudio, sería muy útil implementarlo por dos razones: para mantener la unidad cuántica, pese a que algunos cúbits se eliminen, y para utilizar la energía disipada, un rasgo propio de la vida que emplea el calor que emite para distintos fines.

En definitiva, “parece que la vida tiene esa capacidad de producir arquitecturas que no son rígidas, como sí ocurre, por ejemplo, en dispositivos de silicio”, argumenta Kurian. Este hallazgo podría ayudar a que los futuros ordenadores cuánticos fueran más resistentes.

Corrección de errores

Uno de los grandes retos para construir un equipo cuántico con éxito es la corrección efectiva de errores, es decir, que los ordenadores tengan la capacidad de detectar y suprimir los fallos a una velocidad suficientemente rápida.

En la computación cuántica actual, los cúbits tienen que estar en ambientes muy fríos y aislados

En este punto, la biología puede servir de ejemplo, porque mientras que el chip cuántico de Google, Willow, “hace la corrección de errores en microsegundos, los estados superradiantes en seres vivos lo puede hacer un millón de veces más rápido”, dice el físico.

No obstante, es una cualidad única de la vida en la Tierra preparada para funcionar en ecosistemas cálidos. En la computación cuántica actual, los cúbits tienen que estar en ambientes muy fríos y aislados.

Esto no significa que la biología opere mejor que los ordenadores cuánticos, destaca el investigador. “Yo diría que los sistemas vivos están diseñados para múltiples funcionalidades e interconectados de una manera que las arquitecturas de computación existentes no lo están”, añade.

Una tecnología más autónoma

Según explica el profesor Nicolò Defenu del Instituto Federal de Tecnología en un comunicado, esta teoría sería de gran interés en el desarrollo de nuevos sistemas. De hecho, “es realmente intrigante ver una conexión vital y creciente entre la tecnología cuántica y los sistemas vivos”, afirma el investigador.

Existe mucho interés por parte de los investigadores para desarrollar máquinas cuánticas autónomas y la biología podría esconder la solución a ese dilema

Hay organizaciones que están interesadas en ordenadores cuánticos de escala intermedia ruidos o NISQ —computadoras ya existentes— para que puedan autoorganizarse.

“Podemos tomar algunas ideas de los sistemas vivos para desarrollar arquitecturas de cúbits flexibles que están diseñados para optimizar, no en la forma en la que operan los ordenadores cuánticos convencionales, sino que están hechos para operar de tal manera que la energía que sale de su sistema se utiliza para la autoorganización”, subraya Kurian.

Actualmente, existe mucho interés por parte de los investigadores para desarrollar máquinas cuánticas autónomas y la biología podría esconder la solución a ese dilema, aunque todavía se encuentra en una fase inicial.

Kurian, P. Computational capacity of life in relation to the universe. Science Advances. 2025

Fuente: SINC
Derechos: Creative Commons.

Hacia las ‘raves cuánticas’: ¿qué puede hacer la nueva computación por la música?

La música también puede crecer de la mano de la tecnología. Con los ordenadores cuánticos, artistas e ingenieros se unen para explorar todas las posibilidades que ofrecen estos dispositivos en desarrollo.    

discoteca de música electrónica

La computación cuántica ofrece nuevas formas de crear a la música. / Unsplash

El arte de la música muchas veces ha ido de la mano de la tecnología. En 1840, la matemática Ada Lovelace ya especuló que los ‘protoordenadores’ que había en la época podrían en un futuro “componer piezas musicales elaboradas” basándose en sus propiedades matemáticas.

Desde entonces, estas incursiones han pasado por la música pionera con sintetizadores de Mort Garson hasta los ritmos electrónicos en Brat de Charlie XCX y las apps de producción en un teléfono móvil, haciendo que la aparición de nuevos dispositivos signifique nuevas formas de aplicación. Ahora, con el incipiente desarrollo de los ordenadores cuánticos, vuelve a surgir la pregunta: ¿qué puede hacer este tipo de computación por la música?

Los ordenadores cuánticos se basan en partículas subatómicas que tienen propiedades cuánticas, y su unidad mínima es el cúbit

Osvaldo Jiménez, doctor en óptica cuántica e investigador en la Universitat Ramón Llull (Barcelona), explica a SINC que estos computadores usan las reglas de la física cuántica para funcionar.

“Los ordenadores clásicos se basan en interruptores que van dejando pasar o no señales eléctricas, que se traducen en unos y ceros, y su unidad básica de información es el bit. Los ordenadores cuánticos se basan en partículas subatómicas que tienen propiedades cuánticas, y su unidad es el cúbit”, señala Jiménez.

Las propiedades cuánticas que usan estos computadores son la superposición y el entrelazamiento. “Un átomo está en superposición si está en dos situaciones al mismo tiempo”, explica Jiménez, algo posible en el mundo subatómico. Además, dos de estos átomos pueden mantener una especie de comunicación que se llama entrelazamiento. “Estas propiedades son las que nos ayudan a construir ordenadores cuánticos”, indica el investigador.

¿Cómo suena un cúbit?

La música puede aprovechar estas propiedades, y varios compañías y centros de investigación ya están en ello. Una de las vías es investigar la sonificación de un cúbit, es decir, saber qué significa el sonido cuando hablamos de un cúbit. Esto es lo que hizo Eduardo Miranda, compositor e investigador de la Universidad de Plymouth, en Reino Unido.

“Cuando se comenzaron a usar los ordenadores, los compositores tuvieron que pensar un poco diferente. Ahora me pregunto, ¿cuál es la forma cuántica de pensar con estos nuevos computadores?”, dice Miranda a SINC.

Los ordenadores cuánticos abren nuevos métodos de creación

El equipo del investigador creó el Q1Synth, un sistema que sintetiza sonidos a partir de los vectores de estado y las mediciones de un cúbit. Los detalles se publicaron en 2023 en la revista Applied Sciences.

Q1Synth se presenta en la pantalla de un ordenador como una esfera que representa un cúbit. El intérprete toca el instrumento girando la esfera con un ratón y, mientras gira, se produce un sonido que cambia continuamente. Para realizar las mediciones, este sistema se conecta con un ordenador cuántico a distancia, a través de internet. Actualmente utiliza una máquina desarrollada por IQM en Finlandia. Una versión más sencilla de este sistema está disponible de forma gratuita en su página web.

Captura de pantalla del sistema Q1Synth. Se ve una esfera y varias variables con las que jugar para saber a qué suena un cúbit.

Captura de pantalla del sistema de sonificación de un cúbit Q1Synth desarrollado por la Universidad de Plymouth

En 2022, Miranda y su equipo compusieron la obra Spinnings utilizando tres de estos instrumentos, cada uno tocado por un intérprete. En este caso, los músicos crearon estados cuánticos y mediciones con tres cúbits. El compositor subraya que, por el momento, no se trata de un estilo musical diferente, sino de una herramienta más.

La música de la aleatoriedad

Otro de los atractivos que tiene la computación cuántica para la música es la aleatoriedad genuina que consigue. Ya en el siglo XX se compusieron obras utilizando el concepto del azar, como Music of changes, de 1951, en la que el artista estadounidense John Cage utilizó el texto clásico chino de adivinación I Ching para aplicar decisiones de composición usando tablas de sonido, duraciones, dinámicas y tempos.

Sin embargo, generar esta aleatoriedad natural en los ordenadores no es fácil. Los clásicos solo pueden ofrecer una pseudoaleatoriedad generada algorítmicamente y que al cabo de un tiempo acaba repitiendo patrones. Según Osvaldo Jiménez, la inteligencia artificial tampoco puede generar una aleatoriedad verdadera, ya que “se basa en los datos que ya existen o que le proporcionas, así que solo pueden darte música en función de esos parámetros”.

Las propiedades de superposición y entrelazamiento permiten a los ordenadores cuánticos crear una aleatoriedad genuina

Esto cambia en los ordenadores cuánticos. Sus propiedades de superposición (que un átomo pueda estar en dos estados a la vez) y entrelazamiento (la comunicación entre dos de estos átomos) permiten que puedan crear una aleatoriedad genuina.  

Estas propiedades son las que usaron la compositora Reiko Yamada y el profesor Maciej Lewenstein, ambos del grupo de Teoría óptica cuántica del Instituto de Ciencias Fotónicas (ICFO) en Castelldefells, en el proyecto de investigación Interpreting Quantum Randomness (Interpretando la Aleatoriedad Cuántica).

En esta obra presentaron una serie aleatoria de timbres y frecuencias nuevas creadas a partir de la aplicación de los principios de la teoría cuántica a la música. Su método fue publicado en el International Journal of Music Science, Technology and Art

Miranda también hizo uso de esta propiedad al crear la sonata Qubism para la orquesta de cámara y electrónica London Sinfonietta. En ella, el sistema extrajo reglas de secuenciación de la música de entrada y la representó como estados cuánticos. A continuación, generó respuestas basadas en esas reglas.

Según el investigador, las respuestas del ordenador cuántico “son impredecibles”, lo que lo hace “intrigante”, pero muchas veces también genera malas combinaciones. “Ahí es dónde entra el criterio humano para distinguir lo que se quiere incluir en la pieza y lo que no”, añade.

Una herramienta complementaria

Tanto Jiménez como Miranda coinciden en que los ordenadores cuánticos están en fases muy iniciales, pero tienen gran potencial. Según Jiménez, podrán ser un gran complemento. “Ahora hay pocas cosas que solo los ordenadores cuánticos puedan hacer”, señala, “pero en el futuro serán algo complementario a los ordenadores clásicos”.

Miranda indica que ahora “no pueden competir con los supercomputadores”, que siguen siendo más potentes. Sin embargo, para el investigador es una “nueva forma de crear” y los artistas “deben empezar a explorar esta nueva herramienta”.

Ahora hay pocas cosas que solo los ordenadores cuánticos puedan hacer, pero en el futuro serán algo complementario a los ordenadores clásicos

Osvaldo Jiménez, Univ. Ramón Llull La Salle

Eso es lo que hace la empresa británica Moth, que ya está desarrollando proyectos con artistas para que puedan experimentar con herramientas cuánticas. “A veces colaboramos con un artista mientras utiliza nuestras herramientas y aplicaciones, y otras integramos directamente al artista en el proceso de desarrollo”, dice a SINC Harry Kumar, ingeniero de sonido y cofundador de Moth.

Hacia las raves cuánticas

Según Kumar, en Moth quieren que las herramientas cuánticas salgan de los ambientes académicos y de las grandes tecnológicas y lleguen a los artistas y a un público más amplio.

“Las raves son un ejemplo perfecto. Históricamente han sido espacios donde evolucionan la cultura musical y la experimentación tecnológica. El año pasado, desde Moth apoyamos una ‘rave cuántica’ en Londres, comisariada por el artista Atay Ilgun. El músico pudo crear en un espacio en el que algunas de las primeras herramientas cuánticas de Moth podían probarse en un entorno de discoteca”, señala.

Es posible que los ordenadores cuánticos, en un futuro, estén en manos de unas pocas tecnológicas. Para evitarlo, los músicos tenemos que empezar a trabajar con ellos para poder demandar un acceso más democrático

Eduardo Miranda, Univ. de Plymouth

Kumar dice que lo que le entusiasma “no es necesariamente la idea de nuevas frecuencias o sonidos que solo un ordenador cuántico podría producir: un ordenador cuántico no abre un portal a un espectro sonoro oculto. En cambio, abre nuevos métodos de creación. E históricamente, es a través de nuevas formas de crear como nacen nuevos estilos, nuevas estéticas e incluso nuevas culturas”.

En este sentido, Miranda insiste en seguir por este camino para que la computación cuántica pueda llegar a los profesionales de la música. “Es posible que los ordenadores cuánticos, en un futuro, estén en manos de unas pocas tecnológicas. Para evitarlo, los músicos tenemos que empezar a trabajar con ellos para saber qué queremos de ellos y demandar un acceso más democrático”, dice el investigador. “Se trata de educar al mayor número de personas posible desde ahora y no esperar a que las cosas estén listas”, añade.

Fuente: SINC
Derechos: Creative Commons

Preguntas y respuestas sobre computación cuántica: qué es, para qué servirá y cuándo

La computación cuántica se presenta como una de las tecnologías rompedoras para este siglo. Pero si generalmente todo lo relacionado con el mundo cuántico no es fácil de comprender, en este caso además los mensajes que circulan no ayudan a entender el alcance de esta tecnología y sus aplicaciones.

Procesadores cuánticos

Procesadores cuánticos de la compañía D-Wave. / Steve Jurvetson from Menlo Park, USA | Wikimedia Commons

Entre las previsiones de las próximas revoluciones tecnológicas nunca falta la computación cuántica, un campo del que se esperan grandes beneficios. Según la visión del afamado físico y divulgador Michio Kaku en su libro de 2023 Quantum Supremacy – How the Quantum Computer Revolution Will Change Everything, esta tecnología encontrará las soluciones a todos los grandes problemas de nuestro tiempo. “Lo cambiará todo”, defiende Kaku.

En esta tecnología aún es mucho lo que falta por definir, comenzando por la propia frontera entre lo que logrará y lo que no, entre realidad y ficción

La computación cuántica explota el extraño comportamiento del mundo subatómico, que aporta capacidades inalcanzables para los ordenadores actuales. La supremacía cuántica mencionada en el título de Kaku se refiere a la situación en la que uno de estos avanzados computadores sea capaz de resolver un problema que en la práctica resulte inabordable para la computación convencional.

Pero el hecho de que algunas de estas proclamas hayan sido cuestionadas por expertos es una muestra más de que en esta tecnología aún es mucho lo que falta por definir, comenzando por la propia frontera entre lo que logrará y lo que no, entre realidad y ficción. ¿Está justificado el tecnooptimismo de Kaku? ¿Qué es la computación cuántica y qué podemos esperar realmente de ella?

¿Qué es la computación cuántica?

La computación que conocemos se basa en una unidad mínima de información llamada dígito binario o bit, que puede adoptar uno de dos valores representados habitualmente como 0 o 1.

El bit cuántico o cúbit aprovecha las insólitas reglas del mundo cuántico

Frente a esto, el bit cuántico o cúbit aprovecha las insólitas reglas del mundo cuántico: así como el famoso gato de Schrödinger está vivo y muerto al mismo tiempo, un cúbit admite una combinación probabilística de múltiples estados a la vez, una propiedad conocida como superposición.

De este modo, el cúbit puede almacenar más información que un bit clásico. Además, distintos cúbits trabajan conjuntamente comunicándose a través del llamado entrelazamiento cuántico, lo que aumenta la capacidad de procesamiento con respecto a la computación tradicional.

¿En qué se diferencia su tecnología?

Los cúbits aún se encuentran en un estado mucho más primitivo. Por el momento no existe un estándar universal

El bit y el cúbit son conceptos que en la práctica deben materializarse en un soporte físico. El primero lo encontró en el transistor de silicio, un material semiconductor con dos estados posibles. Los transistores, hoy del tamaño de nanómetros, se agrupan en los circuitos integrados o chips que forman los microprocesadores; los actuales llegan a acumular cientos de miles de millones de transistores, en algunos casos incluso billones en un solo procesador.

Los cúbits aún se encuentran en un estado mucho más primitivo. Por el momento no existe un estándar universal; diversas tecnologías compiten para demostrar sus ventajas utilizando luz, iones o campos magnéticos. Muchos de los sistemas existentes hoy se basan en el uso de circuitos superconductores o iones atrapados, pero los expertos auguran oportunidades para ciertas tecnologías emergentes.

Algunas tecnologías funcionan a temperatura ambiente, mientras que otras requieren frío cercano al cero absoluto, -273 grados centígrados

Entre estas destaca —no sin controversia— la que se basa en un tipo de partículas elementales llamadas fermiones de Majorana y que Microsoft ha aplicado a la creación de un nuevo chip. Además, los investigadores exploran las ventajas que pueden ofrecer las peculiares propiedades de materiales especiales como las tierras raras.

Aún no hay medidas estandarizadas del rendimiento de la computación cuántica, lo que dificulta la comparación de tecnologías distintas; por ejemplo, algunas funcionan a temperatura ambiente, mientras que otras requieren frío cercano al cero absoluto, -273 grados centígrados. Tampoco pueden compararse los sistemas por su número de cúbits.

Sycamore

Un criostato de la compañía IBM. Se trata de un dispositivo utilizado para mantener los componentes de un ordenador cuántico a una temperatura cercana al cero absoluto. / IBM

¿Qué obstáculos técnicos falta por superar?

La computación cuántica no ha despegado porque aún deben superarse grandes desafíos técnicos. Para empezar, su funcionamiento depende de que la magia del comportamiento cuántico se mantenga el mayor tiempo posible. Pero las interferencias, el ruido y la interacción de los cúbits con su entorno provocan decoherencia, una pérdida de los estados cuánticos de superposición y entrelazamiento.

Para evitar la pérdida de información, una buena cantidad de cúbits se dedican a corrección de errores

Para evitar esta pérdida de información, una buena cantidad de cúbits se dedican a corrección de errores. Un modo de construir sistemas más robustos es distribuir la información entre un grupo de hasta un millar de cúbits físicos redundantes, que forman así un “cúbit lógico”. El resultado es una mayor fiabilidad, pero a costa de sacrificar potencia.

Esto obstaculiza también la escalabilidad de los ordenadores cuánticos. Actualmente los más grandes se sitúan en el orden del millar de cúbits, pero en el futuro deberían saltar hasta una escala de millones. Y cuantos más cúbits, más frágil es la coherencia cuántica.

Algún investigador en este campo ha comparado el estado actual a lo que era la computación clásica a finales de los años 80

A todos los retos técnicos que aún deben superarse se añaden los necesarios desarrollos y estandarizaciones de hardware y software para que la computación cuántica pueda llegar algún día a una fase comercial. Algún investigador en este campo ha comparado el estado actual a lo que era la computación clásica a finales de los años 80.

¿Cuál es el estado actual?

En la arena de la computación cuántica compiten gigantes tecnológicos como IBM, Google o Intel, junto con centenares de startups y entidades académicas asociadas.

Fuentes expertas sugieren que 2025 podría ser el año en que el escalado de los chips cuánticos diera el gran salto

En noviembre de 2024 IBM presentó su sistema más avanzado hasta la fecha, Heron R2, con 156 cúbits. Es el más rápido de la compañía, pero no el más potente: Condor, lanzado un año antes, es el segundo procesador cuántico más grande hasta hoy, con 1 121 cúbit, solo por debajo del sistema de 1180 cúbits creado por la californiana Atom Computing. Por su parte, Google presentó en diciembre de 2024 su último modelo, Willow, con 105 cúbits.

La compañía D-Wave Quantum fabrica procesadores que ya superan los 7 000 cúbits, pero utiliza un tipo de tecnología específica para problemas de optimización, llamada annealer,menos versátil para un uso en computación general.

Diversos sistemas están accesibles en la nube para los usuarios, lo que no solo presta servicios a instituciones de investigación, sino que además contribuye al propio desarrollo de la computación cuántica mediante las aportaciones de nuevos algoritmos.

Algunas fuentes expertas han sugerido que 2025 podría marcar un salto en el escalado de chips cuánticos hacia los cientos de miles de cúbits físicos, lo que depende también de una mayor miniaturización.

Sycamore

El procesador cuántico Sycamore de Google. / Google / Wikimedia Commons

¿Cuáles serán sus aplicaciones?

La cuántica será provechosa en la simulación de sistemas físicos y químicos o la criptografía

Un artículo publicado en Nature en 2023 se preguntaba para qué eran útiles los ordenadores cuánticos. La respuesta: “Por ahora, absolutamente para nada”. Pero lo serán: los comentarios suelen coincidir en que la computación cuántica será provechosa en la simulación de sistemas físicos y químicos o la criptografía, si bien aclaran que el beneficio no será tanto el abordaje de problemas antes irresolubles, sino una reducción del tiempo de procesamiento.

El problema con otros usos, señalan investigadores y expertos, es que la computación cuántica no aportará mejoras sustanciales respecto a la clásica, ni siquiera en el tiempo. Por ello y según contaba a Nature el científico computacional de la Universidad de Texas Scott Aaronson, “todos los demás casos de usos de los que la gente habla son más marginales, más especulativos, o ambas cosas”. Aaronson ha sido demoledor con el libro de Michio Kaku, que ha calificado como “el peor libro sobre computación cuántica” y un cúmulo de mentiras.

La visión más prudente sostiene que se restringirá a usos especializados y no reemplazará a la computación clásica, sino que la complementará

Así, frente a quienes vaticinan un futuro de computadores cuánticos para todo y para todos, una visión más prudente sostiene que se restringirán a usos especializados y no reemplazarán a la computación clásica, sino que la complementarán, lo que exigirá un desarrollo de la comunicación entre ambos tipos de sistemas.

Observadores del sector han apuntado que en los últimos años, ante las dudas sobre las expectativas de la computación cuántica y el bombo en torno a los sistemas de inteligencia artificial basados en modelos grandes de lenguaje, como ChatGPT, un notable volumen de inversiones y del interés de las compañías financieras se ha desplazado del primer campo al segundo.

¿Qué es la supremacía cuántica?

También llamada ventaja cuántica para evitar las connotaciones negativas de la palabra ‘supremacía’, es una meta planteada desde las primeras propuestas de este tipo de computación. Este hito se alcanza cuando un ordenador cuántico es capaz de resolver un problema que ningún computador clásico pueda solucionar en un periodo de tiempo aceptable, pero no tiene por qué tratarse de un problema útil ni práctico.

Esta supremacía se alcanza cuando un ordenador cuántico es capaz de resolver un problema que ningún computador clásico pueda solucionar en un periodo de tiempo aceptable

En 2019 Google anunció que su ordenador Sycamore, con un chip de 54 cúbits, había resuelto en 200 segundos una serie de operaciones que un supercomputador clásico equivalente a unos 100 000 ordenadores normales tardaría 10 000 años en completar. Sin embargo, IBM objetó la estimación de su rival, afirmando que la tarea podía realizarse en solo 2,5 días en un ordenador tradicional.

Después han surgido otras proclamas de supremacía o ventaja, pero habitualmente la revisión de los algoritmos aplicados para resolver el problema mediante la computación clásica ha rebajado sustancialmente la diferencia del tiempo de procesamiento entre ambos tipos de sistemas. De cualquier manera, los científicos señalan que estos avances son valiosos como hitos científicos, sin impacto en el progreso comercial de la computación cuántica.

Fuente: SINC
Derechos: Creative Commons

Más de mil millones de personas estuvieron expuestas a alta contaminación por incendios forestales de 2003 a 2022

Estos fenómenos se han vuelto más frecuentes y severos, y se ha comprobado que las partículas finas generadas en ellos perjudican a la salud. Según un nuevo estudio, 1 009 millones de personas al año, al menos durante un día, se expusieron a alta contaminación interior por incendios forestales en las últimas dos décadas.

Dos helicópteros realizan labores de extinción

Dos helicópteros realizan labores de extinción en Ribadavia (Ourense). / EFE | Brais Lorenzo

Más de mil millones de personas al año, entre 2003 y 2022, respiraron aire contaminado por incendios forestales dentro de sus casas. Estas partículas, de menos de 2,5 micrómetros o menos (las llamadas PM2.5), pueden penetrar en los pulmones y están vinculadas a graves problemas de salud.

Aunque los purificadores de aire con filtros son una forma eficaz de reducir la exposición dentro de casa, su uso implica un coste económico considerable, especialmente en regiones con menos recursos.

“Aplicamos un enfoque de aprendizaje automático para modelar la tasa de intercambio de aire en diferentes países y regiones basándonos en los datos disponibles recopilados”, dice a SINC Bin Zhao, científico coautor del estudio en la Universidad Tsinghua en Pekín (China). El trabajo se publica la revista Science Advances.

Aplicamos un enfoque de aprendizaje automático para modelar la tasa de intercambio de aire en diferentes países y regiones basándonos en los datos disponibles recopilados

Bin Zhao, Universidad Tsinghua en Pekín

El estudio también muestra que la exposición no afecta a todos por igual. Las simulaciones, que incluyeron tres escenarios distintos de implementación global de purificadores de aire, revelaron grandes disparidades geográficas y socioeconómicas tanto en la exposición como en el coste de la purificación. África Central, por ejemplo, registró la mayor concentración anual de partículas finas por incendios en interiores, ponderada por población.

Carga económica desproporcionada

Para estimar el coste de la purificación, el equipo modeló tres escenarios: reducir los niveles de PM2.5 en interiores a 25, 15 y 5 microgramos por metro cúbico, respectivamente. En todos los casos, los países de bajos ingresos enfrentan una carga económica desproporcionada para lograr una calidad del aire aceptable.

 “La distribución desigual de los recursos, resultante de las disparidades socioeconómicas, tiene el potencial de exacerbar la injusticia global, al exponer a aquellos que no pueden pagar el costo de los purificadores de aire a mayores riesgos para la salud”, advierte Dongjia Han, que lidera el trabajo en la universidad china.

La distribución desigual de los recursos tiene el potencial de exacerbar la injusticia global, al exponer a aquellos que no pueden pagar el costo de los purificadores de aire a mayores riesgos para la salud

Dongjia Han, que lidera el trabajo

“Los purificadores analizados en este estudio son los que utilizan medios filtrantes, y este tipo de purificador es el más utilizado. Puede adquirirse en plataformas de compra en línea populares en todo el mundo”, añade Zhao.

Los investigadores utilizaron herramientas de modelado y aprendizaje automático para trazar mapas de concentración de partículas a alta resolución en todo el mundo, y estimaron tasas de ventilación en distintos países a partir de datos existentes.

“En mi opinión, el uso de mascarillas puede ser alternativo y eficaz para defenderse de la inhalación de humo peligroso procedente de incendios forestales. Sin embargo, para algunas poblaciones susceptibles como ancianos y niños, el uso de máscaras puede causar molestias debido a la resistencia respiratoria adicional”, continúa investigador.

El uso de mascarillas puede ser alternativo y eficaz para defenderse de la inhalación de humo peligroso procedente de incendios forestales. Sin embargo, para algunas poblaciones susceptibles como ancianos y niños, el uso de máscaras puede causar molestias debido a la resistencia respiratoria adicional

Bin Zhao, Universidad Tsinghua en Pekín

El trabajo, además de ofrecer cifras preocupantes, pone sobre la mesa la urgencia de políticas públicas que promuevan el acceso equitativo a tecnologías de purificación del aire. Tal como concluyen otros expertos en un artículo que acompaña al trabajo, estos estudios pueden ser clave para diseñar intervenciones que protejan especialmente a las poblaciones más vulnerables.

Referencia:

Dongjia Han, Yongxuan Guo, Jianghao Wang, Bin Zhao. «Global disparities in indoor wildfire-PM2.5 exposure and mitigation costs», Science Advances.

Fuente: SINC
Derechos: Creative Commons.