Escudo invisible a miles de kilómetros de la Tierra: expertos

escudo-startrek

Como si de la saga de películas de Star Trek se tratara, un equipo de científicos de la Universidad de Colorado (EEUU) ha descubierto un escudo invisible ubicado a unos 11.500 kilómetros sobre la Tierra y cuya función no es otra que bloquear los llamados “electrones asesinos”, unas partículas que circulan a gran velocidad alrededor de nuestro planeta y que suponen una grave amenaza tanto para satélites, sistemas espaciales o astronautas. El hallazgo ha sido publicado en la revista Nature.

Los investigadores han localizado este insólito escudo protector en los cinturones de radiación de Van Allen que fueron descubiertos en 1958 y que ayudaron a comprender que se trataba de dos anillos de más de 40.000 kilómetros, uno exterior y otro interior, llenos de electrones de alta energía y de protones, que se contraían y se dilataban dependiendo de las perturbaciones de energía provenientes del Sol.

En 2013 fue descubierto un tercer anillo, de almacenamiento, ubicado entre ambos y, todos ellos giran en torno a un límite “extremadamente fuerte” en el borde interior del cinturón exterior: un escudo invisible que bloquea los electrones ultrarrápidos. Sin embargo, ninguno de los planteamientos o explicaciones a este fenómeno ha encontrado respuesta científica válida por el momento.

“Es algo así como los escudos creados por campos de fuerza que se veían en Star Trek y que éstos utilizaban para repeler los ataques de armas alienígenas. Es un escudo invisible que bloquea estos electrones y es un fenómeno extremadamente desconcertante”, explica Daniel Baker, líder del estudio.

FUENTE: Muy Interesante

 

Cinco alimentos ricos en proteínas para olvidar la carne roja

shutterstock_98453297

Por David Losa

Ciudad de México, 1 de diciembre (SinEmbargo/HuffingtonPost).- Ya se ha pasado un poco el sustazo que nos llevamos con el informe de la Organización Mundial de la Salud (OMS) sobre la carne roja. En parte, porque pocos días después matizó sus palabras y nos quitó un peso de encima afirmando que no hay que dejar de comerla totalmente, sólo hay que reducir sensiblemente su consumo. Lo malo es que no podemos ni debemos escapar a la realidad: hay que buscar las proteínas en otros alimentos.

Para ello hemos contactado con el experto en nutrición Ata Pouramini, autor del libro Tú eres tu medicina, que ha seleccionado cinco alimentos con alto valor biológico —con todos los nutrientes necesarios para que el organismo funcione igual que si consumiera carne— y nos ha explicado cinco formas de prepararlos. Toma nota:

SD_01PESCADO AZUL

Sigue siendo la estrella de las recomendaciones de nutricionistas. Sus niveles de Omega 3, antioxidante y rico en colesterol “del bueno”, complementan su nivel de proteínas, similar a las de la carne o el huevo. Pouramini propone consumir salmonete, un pescado de temporada, no muy graso, rico en minerales como fósforo, potasio, magnesio y yodo, cuyo nivel proteico no es muy alto pero sí completo.

Posee todos los aminoácidos esenciales. Una forma de cocinarlo que le favorece es al horno con especias, cebolla y un simple chorro de aceite de oliva. Su carne, que tiende a secarse, mejora con este procedimiento. Sencillo, sano y sabroso.

SD_02 LEGUMBRES

Soja, lentejas y habas son las que más proteína contienen. Se dice que la legumbre no casa con nuestra forma de vida, pero hay soluciones fáciles y rápidas, como el humus, un paté de garbanzos con aceite de oliva, pimentón y un diente de ajo, al que se añade sal pimienta y limón antes de triturarlo.

Los garbanzos son también muy sanos y ricos en calcio, fósforo y magnesio, además de vitamina A.

SD_03HUEVOS

Los alimentos fritos deben evitarse. Foto: Shutterstock

Los alimentos fritos deben evitarse. Foto: Shutterstock

Pasada su racha de mala fama debido a su supuesta relación con el colesterol, el huevo ha sido devuelto al lugar que le corresponde. Es altamente hidratante, su aporte graso es bueno y posee la proteína de más alto nivel biológico.

Eso sí, ni frito, ni cocido: a la plancha, sólo con una gota de aceite de oliva. Eliminas calorías, grasa y obtienes las proteínas necesarias. Se recomienda en el desayuno para mantener el equilibrio energético sin comer dulce ni hidratos “malos” entre horas.

SD_04AMARANTO

Por su alto valor nutritivo se encuentra en las dietas de los astronautas. Posee un 16 por ciento de proteína vegetal, con un balance positivo muy importante de aminoácidos esenciales. Se puede consumir como cereal, como harina o como pasta. Si lo encontramos en forma de pasta, nos será de ayuda para quitarnos esos carbohidratos procesados que se comen bastante a menudo: tortellinis, macarrones.

Nos aportará la textura y nos alimentará como un cereal integral. Siempre mejor con verduras o aceite que con tomate industrial.

SD_05 SEMILLAS DE CHÍA

Procedentes de la chía, una planta herbácea nativa de Centroamérica, estas semillas son ricas en proteínas completas, y además poseen niveles estimables de calcio y magnesio, dos minerales esenciales, así como de ácidos grasos omega 3. Añádelas a la ensaladas, como se hace habitualmente con el sésamo. Aportan diseño, color y un sabor suave muy rico (parecido al de las nueces, por ejemplo). Mucho por muy poco.

Otros alimentos ricos en proteínas de alto valor biológico son, según Ata Pouramini, el tofu, la quinoa, el trigo sarraceno, los frutos secos o el tempeh.

FUENTE: Sin Embargo

 

En Facebook aparece un virus que ‘se esconde’ en las notificaciones

Facebook

Usuarios del segmento ruso de la red social Facebook han denunciado este viermes la existencia de un virus que se activa cuando se abre una notificación acerca de la mención de alguien en una publicación o en un comentario.

Al pinchar la notificación se abre un sitio web externo con contenido obsceno, comunicaron los internautas en las redes sociales.

A finales de septiembre Facebook quedó fuera de servicio para todo el mundo en todas las plataformas. Aunque el problema fue resuelto en 20 minutos, la caída de la red social desató el pánico entre los internautas.

FUENTE: RT

 

Crean mexicanos ‘el Uber de médicos’

CareMe

La aplicación CareMe, basada en el modelo de economía colaborativa, similar al de Uber, es una plataforma para que usuarios soliciten desde el smartphone la visita de un médico a su casa u oficina.

CareMe fue creada por los mexicanos Jesús Mendoza y Ricardo López con el propósito de evitar que las personas con alguna enfermedad tengan que desplazarse al consultorio u hospital de su médico familiar.

“El sistema está al revés: el necesitado es el paciente y es el que debe de volver, ir al tráfico, invertir dos horas de su tiempo”, dijo Jesús Mendoza, cofundador de la iniciativa.

Para darse de alta, el usuario debe descargar la aplicación móvil CareMe, disponible para iPhone y Android, crear una cuenta y dar de alta una tarjeta de crédito o débito para pagar la consulta.

Posteriormente, la aplicación le permitirá solicitar la visita de un médico general a domicilio, quien se comunicará con el paciente para acordar la hora y preguntar por síntomas y padecimientos.

La consulta médica cuesta 390 pesos, de los cuales 80 por ciento es para el médico y 20 por ciento para la plataforma.

Por el momento, CareMe opera en fase piloto en la delegación Cuahutémoc y Mendoza estima que las operaciones se extenderán a otras zonas de la Ciudad de México en las próximas semanas.

La aplicación busca competir en un sector que genera cerca del 4 por ciento del empleo en el País, de acuerdo con cifras del Instituto Nacional de Estadística y Geografía.

De hecho, a sólo 12 semanas arrancar un programa piloto, la startup mexicana está por sumar a 90 médicos nuevos que se encuentran en lista de espera, adicional a los 10 con lo que opera actualmente.

Apuestan más startups por el segmento de salud
Más emprendimientos mexicanos ya se enfocan en el mercado de la salud con dispositivos, aplicaciones móviles y plataformas en línea.Para abuelitos
Cuida+ es un teléfono celular con GPS para que personas de la tercera edad puedan comunicarse fácilmente en caso de emergencia además de poder ser localizados mediante una aplicación.Gratis para iOS y Android.Para donar
Con la aplicación Blooders, los usuarios podrán agendar una cita para donar sangre así como encontrar los hospitales más cercanos para realizar una donación.
Gratis para iOS y Android.Para ETS
El anillo Hoope integrará un cartucho con una aguja retráctil de un solo uso, la cual permitirá diagnosticar enfermedades de transmisión sexual.
http://www.hoope.io/Para consultas médicas
La plataforma We Doctors es un proyecto que implementará un página y una aplicación para que doctores den consulta mediante videollamadas.
www.wedoctors.mx/

 

Obsolescencia humana: cuenta regresiva de la humanidad contra la máquina

Humano maquinas

En 1965 Gordon Moore publicó uno de los artículos más significativos de las últimas décadas. En él predecía que el poder de los semiconductores se duplicaría cada año. Su planteamiento desbordó sin embargo el campo de los semiconductores, para extenderse al conjunto de la tecnología digital. A su vez el plazo de doce meses fue extendido a dieciocho. Esta capacidad de duplicar su capacidad en tan corto tiempo, propio de esta tecnología, es conocida como la Ley de Moore.

Ello recuerda al ejemplo emblemático del grano de trigo y el tablero de ajedrez. Según el mismo, si se coloca un grano en el primer casillero, dos en el segundo, cuatro en el tercero, y se va duplicando la cantidad de granos hasta llegar al casillero número 64, nos encontraremos con que la cantidad final de granos sobre el tablero deberá haber superado los 18 billones (millón de millones). Harían falta las cosechas mundiales de más de veintiún mil seiscientos años para alcanzar tal cantidad de granos (Ver Eric Weisstein, “Wheat and chessboard problem”, http://mathworld.wolfram.com/WheatandChessboardProblem.html).

La segunda mitad del tablero

Según Erik Brynjolfsson y Andrew McAffe en estos momentos nos encontramos en la segunda mitad del tablero de ajedrez en cuanto al poder de la tecnología digital se refiere, con lo cual la naturaleza de los cambios que habrán de darse en estos próximos años resultarán inconmensurables (The Second Machine Age, New York, 2014). Los avances en curso abrirán las compuertas de la ciencia de manera inédita, representando grandes avances para la humanidad. Lamentablemente traerán también consigo retos y amenazas que pueden desbordar toda capacidad de respuesta. El área del empleo será sin duda una de las más afectadas. De acuerdo a Carl Benedikt Frey y Michael A. Osborne, en poco más de una década la mitad de los puestos de trabajo en Estados Unidos pueden verse arrasados por la tecnología digital (“The Future of Employment: How Susceptible are Jobs to Computarization”, Oxford University, September 17, 2013).

Poco a poco los empleos rutinarios y repetitivos han venido siendo suplantados por la computación y la robótica, expresiones de la tecnología digital. Sin embargo, esta última está ya adentrándose en los espacios laborales que requerían de pensamiento analítico y alto nivel de educación. Desde radiólogos hasta médicos internistas, desde periodistas hasta analistas financieros o políticos, desde juristas hasta corredores de bolsa, son incontables las áreas profesionales que han entado en cuenta regresiva de supervivencia.

Un proceso y un ejemplo pueden contribuir a explicar lo anterior. El primero es lo que en inglés se conoce como “big data” y que podría traducirse aproximativamente como información amplia. De acuerdo al mismo todo el universo de información disponible en la esfera digital puede ser instantáneamente “accesado” y cotejado por la computación. El ejemplo de su lado se refiere a la célebre computadora Watson de IBM. Luego de diversas proezas en materia de pensamiento analítico, ésta se ha adentrado en el campo del diagnóstico médico. ¿Puede algún profesional de la medicina competir con una máquina que está en capacidad de pasar revista inmediata a todos los trabajos médicos publicados, a todas las convenciones médicas celebradas, a todos los diagnósticos médicos digitalizados para, luego de cotejar y analizar todas las fuentes, emitir un diagnostico?

Tablas de salvación

¿Cómo sobrevivir a la avalancha que se nos viene? De partida habría dos pasos a dar. Uno es identificar los puntos débiles de la tecnología digital para construir sobre ellos nuestros núcleos duros de defensa. Las áreas donde las máquinas no pueden competir con los humanos son claras: la creatividad, las emociones y la movilidad. En ellas habría por tanto que apertrechar defensas. Dos, estar anímicamente preparados para la educación continua y la reinvención profesional periódica.

Thomas Davenport y Julia Kirby asocian la capacidad de no ser desplazados por las máquinas a la posibilidad de convivir con ellas. Ello sobre la base de cinco opciones. Primero, situarse por encima de ellas. Es decir, apuntar a la gran visión de conjunto, al alto nivel de abstracción donde las máquinas no llegan y donde sería posible por ende dirigirlas. Segundo, situarse al lado de éstas. Es decir, enfatizar tareas donde las máquinas no pueden afectarnos como sería el desarrollo de las “múltiples inteligencias”: la emocional, la interpersonal, la intrapersonal, etc. Tercero, situarse al interior de ellas. Es decir, hacer que las máquinas hagan una mejor labor. Cuarto, situarse al margen de éstas. Es decir, identificar nichos profesionales que no resulten económicos de automatizar. Quinto, situarse por delante de ellas. Es decir, promover el desarrollo de los nuevos avances digitales (“Man and Machine”, Harvard Business Review, June 2015).

FUENTE: EU

 

Un análisis de sangre permitirá conocer los virus que ha sufrido cada persona

Virus

Cada virus que penetra en nuestro cuerpo deja una huella casi imborrable en nuestro sistema inmunitario. Nuestras defensas desarrollan anticuerpos para combatirlos. Hasta ahora, para detectar esos agentes infecciosos se debe hacer una prueba específica para cada virus. Una nueva técnica, liderada por la Harvard Medical School de Boston (Estados Unidos) en la que ha participado el Instituto de Investigación del Sida IrsiCaixa, permite analizarlos con tan sólo un análisis de sangre. “Si podemos detectar los virus con una muestra de sangre, podemos detectar los virus que has pasado e incluso cuales tienes ahora”, asegura el investigador del IrsiCaixa Christian Brande.

Con tan solo un gota de sangre se pueden detectar hasta 206 virus. Esta nueva tecnología publicada en la revista Science analiza de forma exhaustiva los anticuerpos virales presentes en la sangre de la persona. Algo que permite seguir la evolución de un virus en una población, estudiar la interacción entre ellos, o saber si pueden causar otras infecciones como se cree que ocurre con el sida. Por eso, Brander considera que “eso sería muy importante para entender cada infección individualmente, pero también para el desarrollo de vacunas a buscar maneras de vacunar contra más de un virus al mismo tiempo”, explica.

Los resultados del estudio que avala esta técnica detectaron un promedio de 10 virus por persona. Los más frecuentes relacionados con los responsables de la mononucleosis infecciosa (citomegalovirus y el Epstein-barr) y el del resfriado común (rinovirus). Ahora, su precio en el mercado sería de 25€ y en menos de 3 días se obtendrían los resultados.

Investigadores

FUENTE: UNED

 

Plutón, un planeta no tan “enano”

Plutón

La llegada de la nave espacial estadounidense “New Horizons” a Plutón ha permitido descubrir que este “planeta enano” es un poco más grande de lo que se pensaba hasta ahora

En el año 2006, durante la celebración de la Asamblea General de la Unión Astronómica Internacional (UAI, http://www.iau.org/) en Praga (República Checa), se decidió, no sin ausencia de polémica, rebajar la categoría de Plutón a “planeta enano”, después de ser considerado como planeta desde su descubrimiento en 1930. Fue una acción que levantó un especial interés en la comunicación científica y en los medios.

El motivo fue precisamente que se adoptó el nuevo término “planeta enano” para definir aquellos cuerpos celestes que no se podían definir exactamente como planetas ni como cuerpos menores del Sistema Solar. Es decir, esta categoría pretendía representar una posición intermedia entre estas dos clases de cuerpos celestes.

El principal requisito para que un cuerpo celeste no sea considerado planeta es el hecho de que este no haya limpiado o despejado la vecindad de su órbita, un concepto de definición compleja pero que significa que no hay otros cuerpos dominantes dentro de la órbita del cuerpo celeste en cuestión.

Dentro de la categoría de planetas enanos se especificó otro término, el de “plutoide”, para incluir todos aquellos objetos que cumpliesen dos requisitos: que se trate de planetas enanos, y que estén en órbita alrededor del Sol pero encontrándose más allá de la órbita de Neptuno (“objetos transneuptianos”).

Así pues, como consecuencia de las decisiones tomadas en aquella Asamblea de la Unión Astronómica Internacional de 2006, Plutón perdió el estatus de “planeta” y pasó a ser definido como “planeta enano”. Pero ahora, gracias a la histórica misión de la nave espacial estadounidense “New Horizons” (http://pluto.jhuapl.edu/), cuyo viaje ha durado casi 10 años, se ha descubierto que Plutón es 80 kilómetros más ancho y tiene 2.370 kilómetros de diámetro (un poco menos del 20% respecto la Tierra), más de lo que se estimaba, según ha informado la Agencia Espacial Estadounidense (NASA, http://www.nasa.gov/).

En cualquier caso, ya hemos comentado que el hecho de que se considere a un planeta como enano no hace referencia directamente a la medida de su diámetro, sino que hay otras variables que influyen en esta categorización, como el de haber limpiado la vecindad de su órbita. Y el problema de Plutón es, precisamente, la dominancia orbital: en las etapas finales de la formación de un planeta, éste crea una dominancia orbital, destacándose como cuerpo dominante sin haber otros cuerpos de tamaño comparable con excepción de sus satélites naturales u otros objetos bajo su influencia gravitacional.

Así pues, aunque por el momento se considere que Plutón no cumple con el requisito de la dominancia orbital, la llegada de más datos provenientes de la nave “New Horizons” puede reabrir el polémico debate sobre la pérdida de estatus de Plutón de “planeta” a “planeta enano”.

FUENTE: UNED

 

Charles Richter y su escala sísmica que perdura en el tiempo

Charles Richter

1985 fue un año devastador para México. Un fuerte temblor que tuvo su epicentro frente a las costas de Michoacán, ocasionó graves daños en el Distrito Federal. Ese mismo año, solo once días después de ese terremoto, el 30 de septiembre, murió el sismólogo estadounidense Charles Francis Richter, creador de la famosa escala de Richter que se usa para calcular la magnitud de los sismos.

No sabemos si el científico estuvo al tanto de lo que se vivía en la capital del país, lo que sí sabemos es que de acuerdo con la escala que él inventó, ese sismo que acabó con miles de vidas humanas, fue de magnitud 8.1.

El primero de octubre de 1985, el periódico Excélsior reportó la muerte del sismólogo Charles Richter, en una pequeña nota ubicada en la esquina de su primera plana. Un día después, el diario español El País también anunció el fallecimiento del científico.

“Charles Richter, el inventor de la escala para medir la intensidad de los sismos que lleva su nombre, falleció a consecuencia de una insuficiencia cardiaca a los 85 años de edad, anunció su familia. Richter sufría del corazón desde hace 11 años y había sido hospitalizado el 30 de julio de 1984, luego de un ataque cardiaco después del cual fue admitido en el centro para convalecientes de Pasadena donde su estado mejoró un poco”, informó en aquel entonces el periódico Excélsior.

Vida dedicada a los sismos

¿Cómo surge en Charles Richter su interés por estudiar y registrar los sismos? Esto fue más o menos un accidente, tal como él lo comentó en la entrevista que en 1978 le realizó Ann Scheid y que hoy enriquece los documentos que a la muerte del sismólogo pasaron a formar parte del Archivo del Instituto Tecnológico de California (Caltech).

Richter nació un 26 de abril en una granja cerca de Hamilton, Ohio. Según esta misma entrevista, sus padres se divorciaron cuando él era joven y su madre –después de que un tribunal lo aceptara– retomó su apellido de soltera. El científico explica que gracias al apoyo de su abuelo, Charles Otto Richter, él y su hermana pudieron continuar con sus estudios.

En 1909 se trasladó junto con su abuelo, su madre y su hermana mayor a Los Ángeles, California, en donde estudió en la Universidad del Sur de California. Posteriormente, a sugerencia de su hermana, estudió en la Universidad de Stanford, en donde años después se graduó como físico. Después de cumplidos los 20 años, tuvo una crisis nerviosa por la cual su madre decidió internarlo en una clínica psiquiátrica.

Declaró que su primer interés científico fue la Astronomía, a partir de la cual años más tarde obtendría metodologías para crear su famosa escala de Richter.

Su educación fue complementada en el Caltech y se doctoró en física teórica. Después laboró en el Instituto Carnegie de Washington, en donde formó parte del Laboratorio de Sismología.

Posteriormente, regresó al Caltech –se incorporó al Laboratorio de Sismología de Pasadena– y trabajó con el científico Beno Gutenberg, con quien en 1932 desarrollaría un sistema para medir la magnitud de los sismos conocida como escala de Richter.

Su pasión

El investigador emérito Cinna Lomnitz, del Instituto de Geofísica de la UNAM, fue alumno del Laboratorio de Sismología del Caltech. Se doctoró en 1955 y realizó un posdoctorado como asistente del doctor Charles Richter.

Recuerda que Richter, a quien todos llamaban Charlie, era un hombre excéntrico, amante de la naturaleza y apasionado de los sismos, los cuales –relató– eran su pasión.

“Él manejaba las estadísticas sísmicas, incluso, creó una colección de tarjetas. Cada tarjeta era un temblor, decía la magnitud, el epicentro, etcétera. En su época era el catálogo más importante y completo de este tipo. Cada tarjeta estaba escrita a mano o con una máquina de escribir, no existían las computadoras. Richter era ideal para ese trabajo porque se acordaba de cada una de sus tarjetas; sabía exactamente en dónde encontrar lo que uno buscaba. Era muy minucioso para los temblores”, narró.

Y aunque su excelente memoria abarcaba todo lo que era información sísmica, Richter era muy distraído para todo lo demás. Su esposa diariamente le preparaba su ropa para que supiera en qué orden vestirse, de lo contrario se ponía la corbata y se olvidaba de ponerse la camisa.

El doctor Lomnitz recordó que no era una persona práctica. Los directivos del Caltech quisieron que diera un curso y “tuvieron que abandonar esa idea porque era tan distraído que los estudiantes se iban saliendo del salón de a uno y Richter seguía hablándole al pizarrón. Pero los que fuimos sus ayudantes sí recibimos una enseñanza muy importante”.

Llegaba al laboratorio puntualmente a las ocho y junto con el doctor Gutenberg bajaban al sótano a analizar los sismogramas de la noche anterior. Se trataba de registros fotográficos que ellos revelaban. “Los estudiantes los oíamos comentar y discutir sobre los diferentes tipos de ondas sísmicas que observaban y que ellos mismos habían descubierto”, explicó.

El doctor Richter se jubiló a los 70 años de edad y conservó su cubículo, y sobre todo, la llave del laboratorio. Tenía un sismómetro en su casa que lo alertaba cada vez que temblaba en cualquier parte del mundo. A cualquier hora del día o de la noche llegaba al laboratorio a revisar los sismogramas.

Se le recuerda como un hombre modesto, amable y jovial, quien nunca hablaba de política ni religión. El doctor Lomnitz narró que a mediodía se sentaba con los estudiantes a compartir su torta y luego jugaba una mano de bridge con las secretarias, además de que sus amistades eran gente modesta como carpinteros o artesanos.

Richter contribuyó a que se popularizara su famosa escala por la manera en como éste la transmitía a los periodistas. Nunca se rehusaba a ser entrevistado y la prensa lo apreciaba por su buen humor, dijo Lomnitz. Además recordó que el científico mantenía un archivo al que llamaba cariñosamente archivo de locos donde guardaba su correspondencia con el público que presumía de haber inventado métodos de predecir los temblores.

“Él mismo era profundamente escéptico y estaba convencido de que no había manera de predecirlos, pero se divertía con las ideas extravagantes del público. Yo creo que sigue teniendo razón, no creía en nada de esto y desde un principio nos decía que no podemos y a lo mejor nunca podremos predecir los temblores. Pero todavía hay buenos científicos que siguen intentándolo, aunque hasta ahora nadie ha podido”, refiere el doctor Lomnitz.

Escalas que cambian

Charles Richter era astrónomo y se inspiró en las escalas de brillantez que utilizan los astrónomos para clasificar las estrellas y definir su escala de magnitudes. El doctor Raúl Valenzuela Wong, del Instituto de Geofísica de la UNAM, agregó que la escala de Richter originalmente fue creada para medir sismos que ocurrían en el sur de California y para un tipo específico de sismómetro conocido como Wood-Anderson.

Es una escala logarítmica, lo que significa que cada que aumenta una unidad también se incrementa mucho más la liberación de energía, es decir, un sismo de magnitud 6 libera 30 veces la energía de uno de magnitud 5, pero uno de magnitud 7 libera 900 veces la energía equivalente a uno de magnitud 5.

Para obtener la magnitud del sismo, la escala mide distancia y amplitud. Así, el sismograma permite identificar lo que se conoce como ondas de cuerpo, llamadas P y S, la primera viaja más rápido que la segunda y medir la diferencia en el tiempo de llegada entre una y otra permitirá obtener la distancia a la cual se encuentra el epicentro del sismo.

La amplitud de la onda se relaciona con la energía que se libera durante el temblor y se puede medir directamente del sismograma. Conforme la onda se va alejando del epicentro éste disminuye su amplitud.

“Esto lo hizo Richter de manera empírica; él registró muchos sismos y de algún modo calibró su escala para que funcionara de esta manera. Otra de las cosas que hizo fue que escogió números que fueran fáciles de manejar. Por lo que la escala de Richter no tiene un límite inferior ni uno superior, o sea, en principio sería posible que tuviéramos un sismo mayor a 10 de magnitud y por otro lado podemos tener sismos con magnitud de 0 o de menos 1 o de menos 2”, explicó el doctor Valenzuela Wong.

Por su parte, el doctor Lomnitz señaló que la escala de Richter tal como él la creó ya no se usa en la práctica, porque hoy existen sismógrafos electrónicos que cuentan con amplificadores. Dijo que en vez de la escala original se han creado escalas similares basadas en instrumentos más modernos. El cálculo de la magnitud esté cambiando, sobre todo para medir los megasismos que son de magnitud 9 o mayores. El que ocurrió en Japón en 2011 alcanzó una magnitud de 9.0, pero inicialmente fue subestimado y se produjeron muchas víctimas.

“Todo el asunto de las magnitudes está en el aire y yo creo que es probablemente la pregunta científica más importante que tenemos que resolver en Sismología: ¿cómo determinar magnitudes que sean correctas y que puedan determinarse en forma rápida? La magnitud es el parámetro más importante que nos ayuda a predecir la fuerza destructiva de un temblor. Es lo que se usa para la alerta sísmica, pero ese problema aún no lo tenemos resuelto”, concluyó.

FUENTE: Ciencia UNAM

 

Amenaza sísmica, mejor comprendida en la actualidad

Hotel Regis - sismo terremoto

Después del sismo de 1985, que tuvo graves consecuencias para la ciudad de México, se han logrado destacados avances en sismología e ingeniería sismológica. Además, fue un parteaguas para la organización de la protección civil, como una actividad importante para el gobierno y los tomadores de decisiones, coincidieron expertos durante el congreso Avances y retos en sismología, ingeniería y gestión del riesgo a 30 años del sismo de 1985.

El sismo del 19 de septiembre de 1985, cuya magnitud fue de 8.1 y causó daños estimados por más de 4 mil 100 millones de dólares y más de 6 mil muertes, fue una llamada de atención de lo mucho que en ese momento faltaba entender de los efectos de los sismos. Por lo tanto, las investigaciones que desde entonces se han realizado han permitido tener una mayor comprensión de la amenaza sísmica en el valle de México.

Hace 30 años los mexicanos no teníamos conciencia clara de la vulnerabilidad a la que estaba expuesto nuestro país en materia de sismos, de fenómenos hidrometeorológicos o de los volcanes, señaló Luis Felipe Puente Espinosa, coordinador nacional de Protección Civil, al participar en la inauguración del congreso.

Agregó que desde ese entonces han sido muchos los avances en investigación que permiten analizar diariamente los efectos de un sismo, sus características, condiciones y posibilidades de que podamos afrontar otro sismo como el que sacudió a la capital del país hace tres décadas.

Hoy en día, muchos jóvenes no tienen conciencia clara de cuáles son los riesgos que representa enfrentarnos a un sismo como el que se vivió en 1985 –expresó– por lo que para conmemorar esta fecha el sábado 19 de septiembre se realiza un gran simulacro en la ciudad de México.

Comunicar el conocimiento

El conocimiento generado a partir de la investigación sismológica debe ser utilizado para conformar acciones y políticas públicas que permitan mitigar los efectos de los sismos, destacó el doctor Carlos Valdés González, director general del Centro Nacional de Prevención de Desastres (Cenapred), en su participación en el congreso celebrado en la UNAM.

Por ejemplo, utilizando el Atlas Nacional de Riesgos es posible estimar que 7.4 millones de habitantes, 2.2 millones de viviendas, 334 centros de salud y 5210 escuelas se encuentran en la zona III de la ciudad de México (la de mayor riesgo sísmico), por lo que se deben fortalecer los esfuerzos para aplicar los conocimientos sísmicos a la mitigación de los efectos que generan estos fenómenos naturales.

Todos los simos son un recordatorio de que vivimos en un país sísmicamente activo, por lo que destacó la importancia de contar con un plan familiar de protección civil.

Avances y retos

El congreso, que tuvo lugar del 17 al 19 de septiembre de 2015, mostró los avances en sismología e ingeniería sismológica, así como los nuevos paradigmas en gestión de riesgos, pero también es una oportunidad para establecer los retos que estas disciplinas tendrán en el futuro, puntualizó el doctor Arturo Iglesias, director del Instituto de Geofísica de la UNAM.

Por su parte, el doctor Adalberto Noyola Robles, director del Instituto de Ingeniería de la UNAM, destacó que desde sus inicios dicha institución ha dado una gran importancia a los aspectos sísmicos y a la revisión constante de los criterios para el diseño sísmico de estructuras, por lo cual ha sido reconocido a nivel nacional e internacional.

Dijo que de investigadores de este instituto surgieron teorías probabilísticas de la evaluación del diseño y del peligro sísmico, así como investigaciones que mostraron la importancia de los efectos de la amplificación de las ondas sísmicas en suelo blando y una mayor comprensión de los efectos de sitio.

La doctora Xyoli Pérez Campos, responsable del Servicio Sismológico Nacional, señaló que este foro académico ha permitido la discusión de lo aprendido en los últimos 30 años en materia de sismos, así como identificar los retos en las distintas disciplinas. Además entre los objetivos del encuentro, expresó, está que las futuras generaciones no vivan una experiencia como la que se tuvo hace 30 años.

FUENTE: Ciencia UNAM

 

Seguir a twitter es darse cuenta en un 80% de lo que sucede: R. Mansilla

Twitter cubano

Doctor en Matemáticas por la Universidad de La Habana, Cuba, Ricardo Mansilla Corona, estudia la estructura de algunas redes sociales caracterizadas por un alto grado de conectividad: internet, difusión de rumores, epidemias y redes de poder; analiza la eficiencia de las mismas en términos de sus niveles de jerarquización y distribución.

Entre las líneas de investigación del especialista adscrito al Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades (CEIICH) figura también la física estadística de los mercados financieros, donde desarrolla modelos de mercado, para tratar de predecir cuándo se van a producir grandes caídas, los denominados “crashes” en la literatura.

Además, lleva a cabo estudios con la información que se genera en las redes sociales a fin de analizar diversos tipos de fenómenos. Uno de ellos fue las elecciones mexicanas de 2012. Para ese proceso electoral se elaboró el sitio web www.monitoreoelectoralmexico.com, con el que, mediante algoritmos, se analizaban frases de twitter referidas a un determinado candidato para saber el “sentimiento” que sobre ellos se tenía, esto es, la tendencia positiva o negativa entre los usuarios de la red social acerca de los mismos.

“Con este programa se recaudaron millones de datos recopilados durante el primer semestre de ese año, mismos que se utilizarán para la publicación de un libro que hablará sobre las elecciones presidenciales vistas desde twitter”, mencionó.

Twitter y la gripa

Según el especialista, este mismo algoritmo que se utilizó con tanto éxito para medir las tendencias electorales en 2012, se retomó ahora para tener un estimado de cuántas personas padecen gripa. “Con este nuevo algoritmo, se toman de twitter los comentarios donde sus autores mencionen la palabra gripa y en cuyo texto quede claro que tiene la enfermedad. El algoritmo debe decidir entre un comentario como “dile a la maestra que no iré hoy pues tengo gripa” de uno como “la gripa es un azote de la humanidad”.

“Creamos el sitio web Viral Map el cual, cada minuto recorre el mundo entero, captura todo los tuits que revelen que alguien está enfermo de gripa y luego los sitúa geográficamente.”

Esto ha ayudado a entender qué relación hay entre las fluctuaciones de temperatura y el número de personas que se enferma, y qué relación hay entre las precipitaciones y la gente con gripa. El programa ha resultado tan eficiente, que lo adquirió el Instituto Nacional de Enfermedades Respiratorias (INER), para realizar análisis más precisos.

El uso de la información que se genera en las redes sociales puede ayudar a entender fenómenos importantes, así como tomar decisiones acerca de ellos. Ricardo Mansilla señaló que si este programa hubiera existido cuando se dieron los alarmantes casos de influenza en México, se habría sabido con mayor exactitud las zonas en donde había mayor riesgo de contagio y evitar el cierre masivo de locales y escuelas.

Viral Map, precisó, puede descargarse gratuitamente como aplicación para teléfonos celulares (https://itunes.apple.com/us/app/viralmap/id690314793 para IOS y https://play.google.com/store/apps/details?id=com.viralmaps para Android ); con él es posible detectar quienes se encuentran enfermos a nuestro alrededor, indicó.

Algoritmos y redes sociales

La idea de utilizar algoritmos para descifrar la información referida a enfermedades contagiosas, nació cuando Ricardo aún vivía en Cuba, donde realizaba modelos de epidemias; existía una teoría de cómo hacer esos modelos con ecuaciones diferenciales.

“Lo que ha sucedido durante los últimos diez años, es que la gente se comporta de forma distinta, la manera en que se mueve dentro de las grandes ciudades, han cambiado drásticamente y por lo tanto, las hipótesis sobre las cuales están construidos esos modelos de ecuaciones diferenciales ya no se cumplen en la realidad”, refirió.

De ahí la necesidad de “inventar” algo nuevo para medir las epidemias, pues los modelos hechos con ecuaciones hoy son obsoletos, están sobrepasados.

Un reto al que se enfrentó con esta nueva técnica, fue la clasificación de los mensajes durante el proceso electoral en 2012, ya que, aclaró, en muchas ocasiones para referirse a tal o cual candidato, la gente utiliza metáforas y sarcasmos, lo que hizo mucho más difícil clasificar los mensajes de los políticos que de los enfermos de gripa.

Así, se detectó que se usaron más de 30 mil formas distintas para hablar de los políticos en twitter, mientras que para referirse a la gripa han identificado unas 11 mil.

¿Por qué usar twitter más que otras redes sociales en este tipo de estudios? De acuerdo con Ricardo Mansilla, twitter es una red social mucho más dinámica, seguir a twitter es darse cuenta en un 80 por ciento de lo que sucede. Facebook es distinto; ahí se pueden publicar fotos, dar “likes” a los comentarios de otros y compartir diversos tipos de información, pero el proceso de difusión de la información es mucho más lento.

Entre la Habana y México

La tesis de doctorado de Ricardo Mansilla fue dirigida por un notable científico, Germinal Cocho, investigador emérito del Departamento de Sistemas Complejos del Instituto de Física de la UNAM. Ricardo Mansilla viajaba cada año desde Cuba y pasaba los veranos en el Instituto de Física trabajando con su asesor. Así, defendió su tesis en 1997.

Después, entre 1998 y 2000 hizo una estancia de trabajo en ese Instituto continuando sus investigaciones con el Dr. Cocho. En la actualidad dirige el Programa de Ciencia y Tecnología del CEIICH en la UNAM y mantiene una estrecha relación de trabajo y una profunda amistad con su antiguo asesor.

Es especialista en el estudio de distribuciones universales en la física, biología, la sociedad y las artes, donde investiga los mecanismos que generan leyes de potencias y otras distribuciones en campos tan disímiles como la física, la biología y la economía.