term title archivos | Décima Sinfonía %

Ciencia

En el futuro los teléfonos inteligentes podrían realizar diagnósticos médicos

Los investigadores de Ludwig-Maximilians-Universitaet (LMU) en Munich muestran que la luz emitida por una sola molécula se puede detectar con una configuración óptica de bajo costo. Su prototipo podría facilitar el diagnóstico médico.

Los biomarcadores juegan un papel central en el diagnóstico de la enfermedad y la evaluación de su curso. Entre los marcadores que se utilizan actualmente se encuentran genes, proteínas, hormonas, lípidos y otras clases de moléculas. Los biomarcadores se pueden encontrar en la sangre, el líquido cefalorraquídeo, la orina y varios tipos de tejidos, pero la mayoría de ellos tienen una cosa en común: ocurren en concentraciones extremadamente bajas y por lo tanto, son técnicamente difíciles de detectar y cuantificar.

Muchos procedimientos de detección utilizan sondas moleculares, como anticuerpos o secuencias cortas de ácido nucleico, que están diseñadas para unirse a biomarcadores específicos. Cuando una sonda reconoce y se une a su objetivo, las reacciones químicas o físicas dan lugar a señales de fluorescencia. Estos métodos funcionan bien, siempre que sean lo suficientemente sensibles como para reconocer el biomarcador relevante en un alto porcentaje de todos los pacientes que lo llevan en la sangre. Además, antes de que tales pruebas basadas en fluorescencia puedan usarse en la práctica, los propios biomarcadores o sus señales deben amplificarse. El objetivo final es permitir que el cribado médico se lleve a cabo directamente en los pacientes, sin tener que enviar las muestras a un laboratorio distante para su análisis.

Las antenas moleculares amplifican las señales de fluorescencia

Philip Tinnefeld, quien tiene una Cátedra de Química Física en LMU, ha desarrollado una estrategia para determinar los niveles de biomarcadores presentes en concentraciones bajas. Ha logrado acoplar sondas de ADN con pequeñas partículas de oro o plata. Los pares de partículas (‘dímeros’) actúan como nano antenas que amplifican las señales de fluorescencia. El truco funciona de la siguiente manera: las interacciones entre las nanopartículas y las ondas de luz entrantes intensifican los campos electromagnéticos locales y esto, a su vez, conduce a un aumento masivo de la amplitud de la fluorescencia. De esta forma, se pueden detectar específicamente bacterias que contienen genes de resistencia a antibióticos e incluso virus.

Te puede interesar: Los cerdos muestran “notable” destreza con videojuegos en reciente estudio científico

“Las nano-antenas basadas en ADN se han estudiado durante los últimos años”, dice Kateryna Trofymchuk, primera autora conjunta del estudio. “Pero la fabricación de estas nanoestructuras presenta desafíos“. El grupo de investigación de Philip Tinnefeld ha logrado configurar con mayor precisión los componentes de sus nano antenas y posicionar las moléculas de ADN que sirven como sondas de captura en el sitio de amplificación de la señal. Juntas, estas modificaciones permiten que la señal de fluorescencia se amplifique de manera más eficaz. Además, en el minúsculo volumen involucrado, que es del orden de zeptolitros (un zeptolitro equivale a 10-21 de litro), se pueden capturar incluso más moléculas.

El alto grado de control de posicionamiento es posible gracias a la nanotecnología del ADN, que explota las propiedades estructurales del ADN para guiar el ensamblaje de todo tipo de objetos a nanoescala, en cantidades extremadamente grandes. “En una muestra, podemos producir simultáneamente miles de millones de estas nano-antenas, usando un procedimiento que básicamente consiste en pipetear algunas soluciones juntas“, dice Trofymchuk.

Diagnóstico de rutina en el teléfono inteligente

“En el futuro”, dice Viktorija Glembockyte, también primera autora conjunta de la publicación, “nuestra tecnología podría utilizarse para pruebas de diagnóstico incluso en áreas en las que el acceso a la electricidad o al equipo de laboratorio esté restringido. Hemos demostrado que podemos detectar directamente pequeños fragmentos de ADN en el suero sanguíneo, utilizando un microscopio portátil basado en un teléfono inteligente que funciona con una fuente de alimentación USB convencional para monitorear el ensayo “. Los teléfonos inteligentes más nuevos suelen estar equipados con cámaras bastante buenas. Aparte de eso, todo lo que se necesita es un láser y una lente, dos componentes baratos y fácilmente disponibles. Los investigadores de LMU utilizaron esta receta básica para construir sus prototipos.

Continuaron demostrando que los fragmentos de ADN que son específicos para genes de resistencia a antibióticos en bacterias podrían detectarse mediante esta configuración. Pero el ensayo podría modificarse fácilmente para detectar una amplia gama de tipos de objetivos interesantes, como los virus. Tinnefeld es optimista: “El año pasado ha demostrado que siempre hay una necesidad de métodos de diagnóstico nuevos e innovadores, y quizás nuestra tecnología pueda algún día contribuir al desarrollo de una prueba de diagnóstico económica y confiable que se pueda realizar en casa“.

Ciudadanos versus internet

Internet ha revolucionado nuestras vidas, ya sea en términos de trabajo, búsqueda de información o entretenimiento, conexión con otros o compras. El mundo en línea ha facilitado muchas cosas y ha abierto oportunidades antes inimaginables. Al mismo tiempo, presenta grandes desafíos tanto a los individuos como a las sociedades: las tecnologías subyacentes no necesariamente sirven a los mejores intereses de los usuarios.

“Nos interesan preguntas como: ¿Cómo podemos crear entornos en línea que respeten la autonomía humana y promuevan la verdad? ¿Y qué pueden hacer las personas mismas para evitar ser engañadas y manipuladas?” dice Anastasia Kozyreva, autora principal e investigadora del Centro de Racionalidad Adaptativa del Instituto Max Planck para el Desarrollo Humano. El equipo de investigación comenzó examinando las diferencias entre los mundos en línea y fuera de línea e identificó cuatro desafíos principales.

1 – El comportamiento del usuario está influenciado por arquitecturas de elección manipuladora. Estos “patrones oscuros” conducen a los usuarios hacia comportamientos no deseados; incluyen publicidad que se mezcla con el contenido o la navegación de una página para generar más clics, o configuraciones de privacidad confusas que incitan a las personas a compartir más información de la que realmente desean.

2 – La información presentada por las arquitecturas de información impulsadas por IA no es neutral; se personaliza sobre la base de los datos recopilados de los usuarios. Esto significa que a dos personas que ingresan el mismo término en un motor de búsqueda probablemente se les mostrarán resultados diferentes. Eso puede ser útil si, por ejemplo, queremos buscar un restaurante y el motor de búsqueda muestra los resultados de nuestro vecindario en la parte superior de la lista, en lugar de un restaurante con el mismo nombre en el otro lado del mundo. Pero si nos muestran noticias o contenido político únicamente sobre la base de nuestras preferencias, corremos el riesgo de encontrarnos en una burbuja de filtro donde ya no estamos expuestos a otras opiniones.

3 – El equipo de investigación ve la información falsa y engañosa como otro desafío para las personas en línea. Los videos y publicaciones que propagan teorías de conspiración y rumores no verificados pueden propagarse rápidamente a través de las redes sociales , causando daños reales. Por ejemplo, las personas pueden decidir no vacunarse debido a la información errónea sobre las vacunas, lo que los pone a ellos mismos y a los demás en riesgo.

4 – Los entornos en línea que distraen buscan constantemente atraer la atención de los usuarios, ya sea mediante notificaciones automáticas, pantallas parpadeantes, anuncios emergentes o contenido actualizado constantemente. El objetivo es captar y mantener la atención de los usuarios durante el mayor tiempo posible: esa es la base misma de los modelos de negocio de las plataformas de Internet. Nos encontramos pasando mucho más tiempo en nuestras pantallas de lo que pretendíamos, sin ningún beneficio real y a costa de nuestra atención para otras cosas.

Te puede interesar: Estudio proporciona nueva información sobre cómo pudieron evolucionar los cerebros

Tomando una perspectiva de la ciencia del comportamiento, los investigadores proponen intervenciones específicas para abordar estos cuatro desafíos. Sugieren que se pueden utilizar ‘herramientas de impulso’ para capacitar nuevas competencias y permitir decisiones mejores y más autónomas en el mundo en línea.

El auto-empujón es una de las herramientas cognitivas que las personas pueden utilizar para crear entornos de elección e información “más saludables” para ellos mismos. El auto empujón permite a las personas configurar su entorno digital de la manera que mejor les funcione. Esto podría implicar desactivar las notificaciones de las aplicaciones o reorganizar la pantalla de inicio del teléfono inteligente para que solo se muestren las aplicaciones útiles: el calendario, la cámara y los mapas, por ejemplo, junto con las aplicaciones de meditación y el tiempo. Todo lo que distrae demasiado, como las redes sociales y los juegos, se guarda mejor en carpetas. Los investigadores también recomiendan que los usuarios establezcan conscientemente límites de tiempo en el uso de las redes sociales.

“El mundo digital está lleno de trampas”, dice Ralph Hertwig, director del Centro de Racionalidad Adaptativa del Instituto Max Planck para el Desarrollo Humano. “Pero podemos tomar medidas para evitar caer en ellos. De la misma manera que podríamos esconder nuestro alijo de chocolate en la parte posterior del armario y poner un tazón de manzanas en la mesa, podemos desactivar las notificaciones de las aplicaciones que exigen permanentemente nuestro “Fuera de la vista está fuera de la mente, ya sea en la vida real o en el mundo digital”.

Y así como miramos a derecha e izquierda antes de cruzar una calle, deberíamos tener el hábito de hacer ciertas preguntas para evaluar el contenido que encontramos en línea. Preguntas como: ¿Cuál es el origen de la información? ¿Qué fuentes se citan? ¿Puedo encontrar contenido similar en sitios web de buena reputación? Este enfoque puede aumentar la competencia de los usuarios para evaluar la confiabilidad de la información en línea. Pero las plataformas de Internet también podrían ayudar a los usuarios a evaluar el contenido, por ejemplo, mostrando árboles de decisión que recuerden a los usuarios que deben verificar la fuente y los hechos antes de compartir contenido.

Sin embargo, de manera más general, los encargados de formular políticas también deben considerar la posibilidad de implementar medidas regulatorias más estrictas para garantizar que los usuarios de Internet mantengan el control sobre el entorno digital y sus datos personales, por ejemplo, a través de configuraciones de privacidad predeterminadas. Por último, pero no menos importante, el uso inteligente y autodeterminado de las tecnologías digitales debe enseñarse tanto en la escuela como en la educación de adultos. Cuanto antes mejor.

Los investigadores enfatizan que ninguna de las intervenciones que proponen puede contrarrestar por sí solo la manipulación en línea o prevenir la propagación de información errónea. “Se necesitará una combinación de herramientas cognitivas inteligentes, educación temprana en alfabetización mediática y un marco regulatorio que limite el poder de los intereses comerciales para secuestrar la atención de la gente y hacer del mundo en línea un lugar más democrático y veraz“, dice Stephan Lewandowsky, profesor de psicología cognitiva en la Universidad de Bristol.

Los cerdos muestran “notable” destreza con videojuegos en reciente estudio científico

Los cerdos probablemente nunca podrán volar, pero una nueva investigación está revelando que algunas especies dentro del género, pueden poseer un notable nivel de flexibilidad mental y de comportamiento. 

Un estudio publicado en Frontiers in Psychology evaluó la capacidad de cuatro cerdos para jugar un videojuego simple con joystick. Cada animal demostró cierta comprensión conceptual a pesar de una destreza limitada en tareas que normalmente se asignan a primates no humanos para analizar la inteligencia.

El estudio involucró a dos cerdos de Yorkshire llamados Hamlet y Omelette, y dos micro cerdos Panepinto, Ebony e Ivory. Los cuatro animales fueron entrenados para acercarse y manipular un joystick con sus hocicos frente a un monitor de computadora durante la primera fase del experimento. Luego se les enseñó a jugar un videojuego en el que el objetivo era mover un cursor con el joystick hacia hasta cuatro paredes, objetivo en la pantalla.

Cada cerdo realizó las tareas muy por encima del azar, lo que indica que el animal entendió que el movimiento del joystick estaba conectado al cursor en la pantalla de la computadora. El hecho de que estos animales con visión de futuro y sin pulgares oponibles pudieran tener éxito en la tarea es “notable”, según los investigadores.

“No es poca cosa para un animal comprender el concepto de que el comportamiento que está realizando está teniendo un efecto en otra parte. Que los cerdos puedan hacer esto en cualquier grado debería darnos una pausa sobre qué más son capaces de aprender y cómo tal aprendizaje puede afectarlos”, dijo la autora principal, la Dra. Candace Croney, profesora de la Universidad de Purdue y directora del Centro Purdue de Ciencias del Bienestar Animal. 

Panepinto micro pig Ebony accionando el joystick. 
Crédito: Candace Croney

Los científicos ya saben que los cerdos son capaces de varios tipos de aprendizaje, desde el mismo tipo de órdenes básicas de obediencia que se les enseña a los perros, como “ven” y “siéntate”, hasta comportamientos más complejos que requieren que cambien de comportamiento cuando cambian las reglas del juego. Un estudio incluso ha demostrado que los cerdos pueden usar espejos para encontrar comida escondida en un recinto, anotó Croney.

En el estudio actual, el equipo usó alimentos para enseñar y reforzar comportamientos, pero también encontró que el contacto social podría influir fuertemente en su persistencia. Por ejemplo, cuando la máquina que dispensaba golosinas no funcionaba, los cerdos continuaban dando respuestas correctas utilizando solo señales verbales y táctiles. Y sólo el estímulo verbal parecía ayudar a los animales durante las tareas más desafiantes.

Este tipo de estudio es importante porque, al igual que con cualquier ser sensible, la forma en que interactuamos con los cerdos y lo que les hacemos les afecta y les importa“, dijo Croney. “Por lo tanto, tenemos la obligación ética de comprender cómo los cerdos adquieren información y qué son capaces de aprender y recordar, porque en última instancia tiene implicaciones sobre cómo perciben sus interacciones con nosotros y su entorno”.

Te puede interesar: La tunelización cuántica en grafeno avanza la era de las comunicaciones inalámbricas de terahercios

Si bien los cerdos no pudieron igualar el nivel de habilidad de los primates no humanos en la tarea de video y no cumplieron con los criterios utilizados para que los primates demuestren un dominio completo del concepto, los investigadores dijeron que las deficiencias podrían explicarse parcialmente por la naturaleza del experimento, que fue diseñado para mamíferos diestros y visualmente orientados.

El estudio terminó antes de que los investigadores pudieran investigar un objetivo más ambicioso: si tal interfaz de computadora que usa símbolos podría emplearse para comunicarse con los cerdos de manera más directa, como se ha hecho con primates no humanos.

“Informar las prácticas de manejo y mejorar el bienestar de los cerdos fue y sigue siendo un objetivo importante, pero en realidad, eso es secundario para apreciar mejor la singularidad de los cerdos fuera de cualquier beneficio que podamos derivar de ellos”, dijo Croney.

Histórico: Tres naciones llegan al planeta Marte en el mismo mes

Febrero de 2021 es un mes histórico para la exploración del planeta Marte, ya que por primera vez en la historia tres sondas de distintos países entran al planeta rojo en un mismo mes.

Los controladores de la misión en el centro espacial emiratí en Dubái anunciaron este martes que la nave llegó al final de su viaje, después de casi siete meses y 482 millones de kilómetros (300 millones de millas) y comenzó a dar vueltas alrededor del planeta rojo.

Amal, que significa esperanza en árabe, se encargará de recopilar datos sobre la delgada atmósfera marciana. La sonda encendió sus propulsores durante 27 minutos en una maniobra complicada y delicada que le permitió perder velocidad lo suficiente para ser atajada por la fuerza gravitacional de Marte.

Te puede interesar: Japón presenta un plan de crecimiento verde para el objetivo de carbono neutral 2050

En tierra fueron necesarios varios minutos para que la señal que confirmaba el éxito llegara a la Tierra. Había mucho en juego: durante años, Marte ha sido el cementerio de muchas misiones espaciales de varios países.

Al confirmarse la hazaña, los ingenieros en el centro de control saltaron de sus asientos y estallaron en vivas y aplausos.

El Curiosity Mars Rover de la NASA aterrizó hace ocho años, el 5 de agosto de 2012, y pronto se le unirá un segundo rover, Perseverance.

En tanto otras dos naves espaciales no tripuladas, de Estados Unidos y China, llegarán a Marte en los próximos días. Las tres misiones se lanzaron en julio para aprovechar la estrecha alineación de la Tierra y Marte.

Un 60 % ciento de todas las misiones a Marte han fracasado. 

Generalmente las naves se han estrellado, se han incendiado o se han quedado cortas, demostrando esto la dificultad de los viajes interplanetarios y de lograr un exitoso descenso en medio de la fina atmósfera marciana.

Se espera que la nave “China primero” circunnavegue Marte el día miércoles hasta desprender un explorador que tratará de posarse sobre la superficie y buscar indicios de vida antigua.

Por su parte la próxima semana, el 18 de febrero, debería llegar el rover estadounidense llamado Perseverance. Es la primera fase de un proyecto de una década emprendido por Estados Unidos y Europa para traer muestras de Marte a Tierra a fin de examinarlas por evidencias de que el planeta rojo alguna vez alojó vida microscópica.

Si China logra su misión, será apenas el segundo país del mundo en colocar una nave en Marte. Estados Unidos lo ha logrado ocho veces, la primera de ellas hace casi 45 años. Actualmente todavía hay un explorador estadounidense recorriendo la superficie marciana.

La Burj Khalifa

Mientras tanto en los Emiratos Árabes, que este año celebra el 50 aniversario de su fundación, proliferan las muestras de orgullo nacional por la hazaña espacial. La Burj Khalifa, el edificio más alto del mundo, se iluminó de rojo en honor a la misión marciana.

La tunelización cuántica en grafeno avanza la era de las comunicaciones inalámbricas de terahercios

Túneles cuánticos. Crédito: Daria Sokol / MIPT

Científicos del MIPT, la Universidad Estatal Pedagógica de Moscú y la Universidad de Manchester han creado un detector de terahercios de alta sensibilidad basado en el efecto del túnel mecánico cuántico en el grafeno. 

La sensibilidad del dispositivo ya es superior a los análogos disponibles comercialmente basados ​​en semiconductores y superconductores, lo que abre perspectivas para aplicaciones del detector de grafeno en comunicaciones inalámbricas, sistemas de seguridad, radioastronomía y diagnósticos médicos. Los resultados de la investigación se publican en Nature Communications.

La transferencia de información en redes inalámbricas se basa en la transformación de una onda electromagnética continua de alta frecuencia en una secuencia discreta de bits. Esta técnica se conoce como modulación de señal. Para transferir los bits más rápido, hay que aumentar la frecuencia de modulación. Sin embargo, esto requiere un aumento sincrónico de la frecuencia de la portadora. Una radio FM común transmite a frecuencias de cien megahercios, un receptor de Wi-Fi usa señales de aproximadamente cinco gigahercios de frecuencia, mientras que las redes móviles 5G pueden transmitir señales de hasta 20 gigahercios. Esto está lejos del límite, y un mayor aumento en la frecuencia de la portadora admite un aumento proporcional en las tasas de transferencia de datos. Desafortunadamente, captar señales con frecuencias de cien gigahercios o más es un problema cada vez más desafiante.

Te puede interesar: Ad portas de desentrañar el misterio que hace que los virus sean infecciosos

Un receptor típico utilizado en comunicaciones inalámbricas consiste en un amplificador de señales débiles basado en transistores y un demodulador que rectifica la secuencia de bits de la señal modulada. Este esquema se originó en la era de la radio y la televisión y se vuelve ineficaz en frecuencias de cientos de gigahercios deseables para los sistemas móviles. El hecho es que la mayoría de los transistores existentes no son lo suficientemente rápidos para recargarse a una frecuencia tan alta.

Una forma evolutiva de resolver este problema es simplemente aumentar la frecuencia máxima de operación de un transistor. La mayoría de los especialistas en el área de la nanoelectrónica trabajan arduamente en esta dirección. Una forma revolucionaria de resolver el problema fue propuesta teóricamente a principios de la década de 1990 por los físicos Michael Dyakonov y Michael Shur, y realizada, entre otros, por el grupo de autores en 2018. Implica abandonar la amplificación activa por transistor y abandonar un demodulador separado. . Lo que queda en el circuito es un solo transistor, pero su función ahora es diferente. Transforma una señal modulada en secuencia de bits o señal de voz por sí misma, debido a la relación no lineal entre su corriente y caída de voltaje.

En el presente trabajo, los autores han demostrado que la detección de una señal de terahercios es muy eficiente en el llamado transistor de efecto de campo de efecto túnel. Para comprender su trabajo, uno puede recordar el principio de un relé electromecánico, donde el paso de la corriente a través de los contactos de control conduce a una conexión mecánica entre dos conductores y, por lo tanto, a la aparición de la corriente. En un transistor de efecto túnel, la aplicación de voltaje al contacto de control (denominado “puerta”) conduce a la alineación de los niveles de energía de la fuente y el canal. Esto también conduce al flujo de corriente. Una característica distintiva de un transistor de efecto túnel es su gran sensibilidad al voltaje de control. Incluso una pequeña “desafinación” de los niveles de energía es suficiente para interrumpir el sutil proceso de tunelización de la mecánica cuántica. 

La idea de una fuerte reacción de un transistor tunelizado a bajos voltajes se conoce desde hace unos quince años“, dice el Dr. Dmitry Svintsov, uno de los autores del estudio, jefe del laboratorio de optoelectrónica de materiales bidimensionales en el centro MIPT. para fotónica y materiales 2-D. “Pero sólo se conoce en la comunidad de la electrónica de baja potencia. Nadie se dio cuenta antes que nosotros de que la misma propiedad de un transistor de efecto túnel se puede aplicar en la tecnología de detectores de terahercios. Georgy Alymov (coautor del estudio) y yo Tuvimos la suerte de trabajar en ambas áreas. Entonces nos dimos cuenta: si el transistor se abre y se cierra a una potencia baja de la señal de control, entonces también debería ser bueno para captar señales débiles del ambiente circundante”.

Te puede interesar: Estudio proporciona nueva información sobre cómo pudieron evolucionar los cerebros

El dispositivo creado se basa en grafeno bicapa, un material único en el que la posición de los niveles de energía (más estrictamente, la estructura de la banda) se puede controlar mediante un voltaje eléctrico. Esto permitió a los autores cambiar entre el transporte clásico y el transporte de túnel cuántico dentro de un solo dispositivo, con solo un cambio en las polaridades del voltaje en los contactos de control. Esta posibilidad es de extrema importancia para una comparación precisa de la capacidad de detección de un transistor de túnel clásico y cuántico.

El experimento mostró que la sensibilidad del dispositivo en el modo de túnel es unos órdenes de magnitud más alta que en el modo de transporte clásico. La señal mínima que puede distinguir el detector frente al ruido de fondo ya compite con la de los bolómetros superconductores y semiconductores disponibles comercialmente. Sin embargo, este no es el límite: la sensibilidad del detector se puede aumentar aún más en dispositivos “más limpios” con una baja concentración de impurezas residuales. La teoría de detección desarrollada, probada por el experimento, muestra que la sensibilidad del detector óptimo puede ser cien veces mayor.

Las características actuales dan lugar a grandes esperanzas para la creación de detectores rápidos y sensibles para comunicaciones inalámbricas “, dice el autor del trabajo, Dr. Denis Bandurin. Y esta área no se limita al grafeno y no se limita a los transistores de túnel. Esperamos que, con el mismo éxito, se pueda crear un detector notable, por ejemplo, basado en una transición de fase controlada eléctricamente. El grafeno resultó ser solo una buena plataforma de lanzamiento aquí, solo una puerta, detrás de la cual hay todo un mundo de nuevas y emocionantes investigaciones”.

Los resultados presentados en este artículo son un ejemplo de una colaboración exitosa entre varios grupos de investigación. Los autores señalan que es este formato de trabajo el que les permite obtener resultados científicos de clase mundial. Por ejemplo, anteriormente, el mismo equipo de científicos demostró cómo las ondas en el mar de electrones del grafeno pueden contribuir al desarrollo de la tecnología de terahercios. “En una era de tecnología en rápida evolución, cada vez es más difícil lograr resultados competitivos”, comenta el Dr. Georgy Fedorov, subdirector del laboratorio de materiales de nanocarbono, MIPT, “Solo combinando los esfuerzos y la experiencia de varios grupos podemos lograr con éxito realizar las tareas más difíciles y lograr las metas más ambiciosas, que seguiremos haciendo“.

¿Cambio climático en la antigüedad? Así ocurrió la emigración masiva por escasez de agua

La ausencia de lluvias monzónicas en la fuente del Nilo fue la causa de las migraciones y la desaparición de asentamientos enteros en la provincia tardorromana de Egipto. Este desarrollo demográfico ha sido comparado con datos ambientales por primera vez por la profesora de historia antigua, Sabine Huebner de la Universidad de Basilea, lo que ha llevado a un descubrimiento del cambio climático y sus consecuencias.

La región de Faiyum, similar a un oasis, a unos 130 km al suroeste de El Cairo, era el granero del Imperio Romano. Sin embargo, a finales del siglo III d.C., numerosos asentamientos que antes eran prósperos se redujeron y finalmente fueron abandonados por sus habitantes. Las excavaciones anteriores y los papiros contemporáneos han demostrado que los problemas con el riego de los campos fueron la causa. También se documentan los intentos de los agricultores locales de adaptarse a la sequedad y desertificación de las tierras agrícolas, por ejemplo, cambiando sus prácticas agrícolas.

Erupción volcánica y lluvias monzónicas

La profesora de historia antigua de Basilea, Sabine R. Huebner, ha demostrado ahora en la revista estadounidense Studies in Late Antiquity que las condiciones ambientales cambiantes estaban detrás de este desarrollo. Los datos climáticos existentes indican que las lluvias monzónicas en las cabeceras del Nilo en las tierras altas de Etiopía se debilitaron repentina y permanentemente. El resultado fue un nivel más bajo de agua en el río en verano. Se ha encontrado evidencia que respalda esto en sedimentos geológicos del delta del Nilo, Faiyum y las tierras altas de Etiopía, que proporciona datos climáticos a largo plazo sobre los monzones y el nivel del agua del Nilo.

Te puede interesar: Cuando los dinosaurios desaparecieron, los bosques prosperaron

Una poderosa erupción volcánica tropical alrededor del 266 D.C, que en el año siguiente trajo una inundación del Nilo por debajo del promedio, presumiblemente también jugó un papel. Se conocen erupciones importantes a partir de depósitos de ácido sulfúrico en núcleos de hielo de Groenlandia y la Antártida, y se pueden fechar dentro de los tres años. Las partículas arrojadas a la estratosfera provocan un enfriamiento del clima, lo que perturba el sistema monzónico local.

Mapa de antiguo Egipto

Nuevos conocimientos sobre el clima, el medio ambiente y la sociedad

En el siglo III d.C., todo el Imperio Romano se vio afectado por crisis que están relativamente bien documentadas en la provincia de Egipto por más de 26.000 papiros conservados (documentos escritos en hojas de papiro). En la región de Faiyum, estos incluyen registros de habitantes que cambiaron al cultivo de vides en lugar de cereales oa la cría de ovejas debido a la escasez de agua. Otros acusaron a sus vecinos de robo de agua o acudieron a las autoridades romanas en busca de desgravaciones fiscales. Estas y otras estrategias de adaptación de la población retrasaron la muerte de sus pueblos durante varias décadas.

“Como hoy, las consecuencias del cambio climático no fueron las mismas en todas partes”, dice Huebner. Aunque las regiones al borde del desierto enfrentaron la dureza de la sequía, otras se beneficiaron de la afluencia de personas que se mudaron de las aldeas abandonadas. “Los nuevos conocimientos sobre la interacción del clima, los cambios ambientales y los desarrollos sociales son de gran actualidad”. El clima de cambio de la antigüedad tardía no fue, sin embargo, a diferencia de hoy, causada principalmente por los seres humanos, pero se basa en las fluctuaciones naturales.

El planeta pierde su hielo a niveles nunca antes vistos

La velocidad a la que el hielo desaparece en todo el planeta se está acelerando, según una nueva investigación.

Y los hallazgos también revelan que la Tierra perdió 28 billones de toneladas de hielo entre 1994 y 2017, lo que equivale a una capa de hielo de 100 metros de espesor que cubre todo el Reino Unido.

Las cifras han sido publicadas el pasado (lunes 25 de enero) por un equipo de investigación que es el primero en realizar un estudio de la pérdida de hielo global utilizando datos de satélite . El equipo, dirigido por la Universidad de Leeds, descubrió que la tasa de pérdida de hielo de la Tierra ha aumentado notablemente en las últimas tres décadas, de 0,8 billones de toneladas por año en la década de 1990 a 1,3 billones de toneladas por año en 2017.

El deshielo en todo el mundo eleva el nivel del mar, aumenta el riesgo de inundaciones en las comunidades costeras y amenaza con destruir los hábitats naturales de los que depende la vida silvestre.

Los hallazgos del equipo de investigación, que incluye a la Universidad de Edimburgo, el University College de Londres y los especialistas en ciencia de datos Earthwave, se publicaron en la revista The Cryosphere de la Unión Europea de Geociencias.

La investigación, financiada por el Consejo de Investigación del Medio Ambiente Natural del Reino Unido, muestra que, en general, ha habido un aumento del 65% en la tasa de pérdida de hielo durante la encuesta de 23 años. Esto se ha debido principalmente a un fuerte aumento de las pérdidas de las capas de hielo polar en la Antártida y Groenlandia.

El autor principal, el Dr. Thomas Slater, investigador del Centro de Observación y Modelado Polar de Leeds, dijo: “Aunque todas las regiones que estudiamos perdieron hielo, las pérdidas de las capas de hielo de la Antártida y Groenlandia se han acelerado más.

“Las capas de hielo están siguiendo ahora los peores escenarios de calentamiento climático establecidos por el Panel Intergubernamental sobre Cambio Climático. El aumento del nivel del mar en esta escala tendrá impactos muy graves en las comunidades costeras este siglo“.

El Dr. Slater dijo que el estudio fue el primero de su tipo en examinar todo el hielo que está desapareciendo en la Tierra, utilizando observaciones satelitales. Añadió: “Durante las últimas tres décadas ha habido un gran esfuerzo internacional para comprender qué está sucediendo con los componentes individuales del sistema de hielo de la Tierra, revolucionado por los satélites que nos permiten monitorear rutinariamente las vastas e inhóspitas regiones donde se puede encontrar hielo.

“Nuestro estudio es el primero en combinar estos esfuerzos y observar todo el hielo que se está perdiendo en todo el planeta”.

El aumento de la pérdida de hielo ha sido provocado por el calentamiento de la atmósfera y los océanos, que se han calentado 0,26 ° C y 0,12 ° C por década desde 1980, respectivamente. La mayor parte de toda la pérdida de hielo se debió al derretimiento atmosférico (68%), y las pérdidas restantes (32%) se debieron al derretimiento oceánico.

El estudio cubre 215.000 glaciares de montaña repartidos por todo el planeta, las capas de hielo polar en Groenlandia y la Antártida, las plataformas de hielo que flotan alrededor de la Antártida y el hielo marino a la deriva en los océanos Ártico y Austral.

El aumento de las temperaturas atmosféricas ha sido el principal impulsor de la disminución del hielo marino del Ártico y los glaciares de montaña en todo el mundo, mientras que el aumento de la temperatura del océano ha aumentado el derretimiento de la capa de hielo de la Antártida. Para la capa de hielo de Groenlandia y las plataformas de hielo de la Antártida, las pérdidas de hielo se han desencadenado por una combinación del aumento de las temperaturas del océano y la atmósfera.

Durante el período de la encuesta, todas las categorías perdieron hielo, pero las mayores pérdidas fueron el hielo del Mar Ártico (7,6 billones de toneladas) y las plataformas de hielo de la Antártida (6,5 billones de toneladas), que flotan en los océanos polares.

Te puede interesar: Impuesto ambiental: La idea que gana fuerza en Europa

La Dra. Isobel Lawrence, investigadora del Centro de Observación y Modelado Polar de Leeds, dijo: “La pérdida de hielo marino no contribuye directamente al aumento del nivel del mar, pero tiene una influencia indirecta. Una de las funciones clave del hielo marino del Ártico es reflejar la radiación solar de regreso al espacio, lo que ayuda a mantener fresco el Ártico.

“A medida que el hielo marino se contrae, los océanos y la atmósfera absorben más energía solar, lo que hace que el Ártico se caliente más rápido que en cualquier otro lugar del planeta.

“Esto no solo está acelerando el derretimiento del hielo marino, sino que también está exacerbando el derretimiento de los glaciares y las capas de hielo, lo que provoca un aumento del nivel del mar”.

La mitad de todas las pérdidas se debieron al hielo en tierra, incluidos 6,1 billones de toneladas de los glaciares de montaña, 3,8 billones de toneladas de la capa de hielo de Groenlandia y 2,5 billones de toneladas de la capa de hielo de la Antártida. Estas pérdidas han elevado el nivel global del mar en 35 milímetros.

Se estima que por cada centímetro de aumento del nivel del mar, aproximadamente un millón de personas están en peligro de ser desplazadas de tierras bajas.

A pesar de almacenar solo el 1% del volumen total de hielo de la Tierra, los glaciares han contribuido a casi una cuarta parte de las pérdidas globales de hielo durante el período de estudio, y todas las regiones glaciares del mundo han perdido hielo.

Un poco más de la mitad (58%) de la pérdida de hielo provino del hemisferio norte y el resto (42%) fue del hemisferio sur.

Estudio proporciona nueva información sobre cómo pudieron evolucionar los cerebros

Investigadores de la Universidad de Australia Occidental han descubierto evidencia de un paso genético importante en la evolución del cerebro. El hallazgo destaca cómo los eventos genéticos que tuvieron lugar en nuestros antepasados ​​parecidos a los peces desempeñan un papel crucial en la biología del cerebro humano en la actualidad.

FOTO| Boca de una lamprea de mar, Petromyzon marinus.

En un nuevo estudio, publicado en Nature Ecology & Evolution, los investigadores encontraron que la metilación del ADN sin CG, un sistema de control epigenético que se encuentra abundantemente en el cerebro humano, apareció por primera vez en los primeros animales vertebrados.

La metilación sin CG tiene la capacidad de activar y desactivar el ADN de los genes que controlan aspectos del funcionamiento del cerebro. El descubrimiento de que la metilación sin CG se encuentra en los animales vertebrados sugiere que ha desempeñado un papel crucial en la habilitación de las capacidades cognitivas sofisticadas que se encuentran en los cerebros humanos y de otros vertebrados en la actualidad.

Te puede interesar: Llegó la era de los Robots: Sofía y otros humanoides se empezarán a producir en masa en plena pandemia

El profesor Ryan Lister, de la Facultad de Ciencias Moleculares de la UWA, quien codirigió el estudio, dijo que los investigadores analizaron las muestras de cerebro de animales de todo el árbol de la vida.

“Queríamos determinar si la metilación no CG está restringida a las especies de mamíferos, que poseen capacidades cognitivas muy complejas , o si tiene orígenes evolutivos más profundos”, dijo el profesor Lister.

Ilustración Neurona.

Los investigadores encontraron que la metilación sin CG se ve exclusivamente en animales vertebrados. Esto incluye lampreas, animales que provienen de un linaje de peces ancestrales sin mandíbula que comparten un ancestro común con los humanos.

Este hallazgo sugiere que la metilación no CG surgió en los primeros ancestros comunes de todos los vertebrados, organismos que vagaron por la tierra hace cientos de millones de años.

El co-investigador, el Dr. Alex de Mendoza, dijo que este resultado significa que la metilación sin CG puede haber jugado un papel crucial en el desarrollo de la sofisticación del cerebro.

“Buscamos metilación sin CG en el cerebro de todo lo que pudimos conseguir, desde marsupiales, ornitorrincos, pájaros, ranas, peces, tiburones y lampreas, lo que representa la gama completa de animales con columna vertebral. También buscamos en el cerebro de varios invertebrados como una abeja y un pulpo”, dijo el Dr. de Mendoza.

Descubrimos que la metilación sin CG evolucionó en el origen de los vertebrados y, por lo tanto, puede haber sido un requisito importante para que el cerebro desarrolle funciones más complejas”.

El estudio también reveló que la evolución de todas las herramientas genéticas necesarias para que las células utilicen la metilación sin CG tuvo lugar aproximadamente al mismo tiempo.

Se descubrió que el gen responsable de escribir la metilación no CG, DNMT3A, y el gen responsable de leerlo, MeCP2, se originaron al inicio de la evolución de los vertebrados.

“Este estudio destaca cómo los eventos que tuvieron lugar en nuestros antepasados ​​parecidos a los peces todavía juegan un papel central en nuestra propia biología cerebral”, dijo el profesor Lister.

Para más informaciones de ciencia navega en Décima Sinfonía.cl

Llegó la era de los Robots: Sofía y otros humanoides se empezarán a producir en masa en plena pandemia

Entre 2018 y 2019 las ventas de robots de servicio profesional habían subido un 32 por ciento, lo cual representó una ganancia de 11 mil millones de dólares. El proyecto de Hanson Robotics consiste en producir cuatro modelos en serie. Estarían listos para su venta a mediados de 2021.

La empresa norteamericana Hanson Robotics, afincada en Hong Kong, presentó en 2016, al robot humanoide Sofía, que alcanzó gran popularidad. En las últimas horas, la empresa anunció que tiene planeado producir cuatro modelos en serie, incluyendo a Sofía.

La idea de la empresa es salir al mercado a mitad de este año. David Hanson, director ejecutivo de la empresa que lleva su nombre, afirmó que el mundo de la pandemia “necesitará cada vez más automatización para mantener a las personas seguras”. En ese sentido, consideró que los robots podrían ser útiles no solamente en la atención médica, sino también en otras áreas, como las aerolíneas o el comercio minorista. Justamente, uno de los proyectos de Hanson es el robot Grace, destinado al área sanitaria. 

Te puede interesar: Chip podría alcanzar supremacía cuántica: Hace operaciones en segundos en lugar de miles de años

A su vez, Hanson destacó que Sofía y los otros robots humanoides son “únicos por ser tan parecidos a los humanos”. Resaltó que “eso puede ser muy útil en estos tiempos en los que las personas se sienten terriblemente solas y socialmente aisladas” y que su idea es producir miles de unidades durante 2021. 

Para Johan Hoorn, profesor de robótica social en la Universidad Politécnica de Hong Kong y desarrollador de Sofía, la pandemia de coronavirus puede generar una gran demanda de robots, “porque la gente empieza a darse cuenta de que no hay otra opción“.

“Los robots sociales como yo pueden cuidar a los enfermos o ancianos”, dice Sofía apenas se presenta. “Puedo ayudar a comunicarme, dar terapia y proporcionar estimulación social, incluso en situaciones difíciles“, añade sobre sus capacidades.

La venta de robots venía en aumento antes de la irrupción de la Covid-19. La Federación Internacional de Robótica reveló que entre 2018 y 2019 las ventas de robots de servicio profesional habían subido un 32 por ciento, lo cual representó una ganancia de 11 mil millones de dólares. 

El robot Pepper, producido por SoftBank Robotics, se implementó para detectar a aquellas personas que no llevan máscara. Cuando surgió el brote en Wuhan, una empresa china, Cloud Minds, montó un hospital de campaña dirigido por robots.

Alguna vez se le preguntó a Sofía si había que tenerle miedo a los robots. Respondió citando a Franklin Delano Roosevelt:  “Alguien dijo ‘no tenemos nada que temer excepto el miedo mismo‘”. 

Hormona masculina podría ser clave para ayudar a curar el cáncer de mama

Unos investigadores han visto que la utilización de andrógenos naturales o un nuevo medicamento androgénico demostraron tener una potente actividad antitumoral, incluso más efectiva que en tratamientos estándares.


Un grupo de científicos australianos y estadounidenses descubrió nuevas evidencias
 sobre el impacto positivo de los andrógenos -hormonas sexuales masculinas- en el tratamiento del cáncer de mama, resultado que puede suponer un avance en la cura de esta enfermedad.

Este trabajo tiene implicaciones inmediatas para las mujeres con cáncer de mama metastásico con receptores de estrógeno positivo, incluyendo aquellos que son resistentes a las formas actuales de terapia endocrina“, dijo en un comunicado de la Universidad de Adelaida (Australia), Theresa Hickey, una de las líderes de la investigación.

Aunque los andrógenos son las hormonas sexuales masculinas, también se encuentran en niveles bajos en las mujeres, por lo que los científicos se centraron en analizar su papel como posible tratamiento de algunos tipos de cáncer de mama en los que la enfermedad se propaga usando los estrógenos, las hormonas femeninas, a través de los receptores de las células.

Te puede interesar: Identifican el contenido de los antiguos contenedores de drogas mayas

Los andrógenos -que engloban varios tipos de hormonas masculinas, como la testosterona- estimulan el desarrollo de las características sexuales masculinas secundarias como la barba, mientras que los estrógenos inducen la aparición de rasgos sexuales secundarios femeninos, como las mamas y la primera menstruación.

En condiciones normales, el estrógeno estimula y el andrógeno inhibe el crecimiento del seno en la pubertad hasta la etapa adulta, pero una actividad anormal del primero provoca la mayoría de los tumores malignos de mama.

En el pasado se usaban los andrógenos para tratar el cáncer de mama sin conocerse mucho sobre su impacto en los receptores, pero fueron soslayados debido a sus efectos secundarios virilizantes y la aparición de tratamientos antiestrogénicos o endocrinos.

Si bien la terapia endrocrina es clave para tratar el cáncer de mama con receptores de estrógeno positivos (es decir, que usan los estrógenos para propagarse), la resistencia de algunas pacientes a estos fármacos es la causa principal de la mortalidad por esta enfermedad, según el comunicado.

Es en estas pacientes, con receptores de estrógenos positivos, en las que la utilización de andrógenos naturales o un nuevo medicamento androgénico han demostrado tener una potente actividad antitumoral, incluso en las resistentes a los actuales tratamientos estándar. En cambio, los inhibidores de los receptores de andrógenos no tenían ningún efecto, de acuerdo a este estudio publicado en la revista científica Nature Medicine.

Hemos proporcionado nuevas y convincentes evidencias experimentales que apuntan a que los fármacos estimulantes de los receptores de andrógenos pueden ser más eficaces que los tratamientos estándar existentes (por ejemplo, el Tamoxifeno)“, indicó Wayne Tilley, de la Universidad de Adelaida, quien co-lideró el estudio con Hickey.

El científico también recalcó que parecen ser mejores que tratamientos nuevos como el Palbociclib, con el que además pueden combinarse para mejorar la inhibición del crecimiento, y no producen los efectos secundarios de los andrógenos naturales, según el comunicado de la Universidad de Adelaida.

Los científicos tienen previsto comenzar un ensayo clínico internacional de la fase 3 en el segundo trimestre de 2021 en el que se evaluará el impacto del Enobosarm, un agente activador de los receptores de andrógenos. En estas pruebas participarán pacientes con cáncer de mama metastásico con receptores de andrógenos y de estrógenos positivos que hayan fracasado en el tratamiento endocrino.

JU (efe, abc.es, nature.com)