Nunca he estado tan cerca de la medianoche. Así es: las manos del reloj apocalipsis, el notorio Reloj del fin del mundo, Fueron avanzando de 90 a 89 segundos Hacia la medianoche para simbolizar una catástrofe global algo inminente.
Este es al menos el anuncio que fue dado por Boletín de los científicos atómicos. Fundada en ’45 por Albert Einstein, J. Robert Opsheimer y científicos de la Universidad de Chicago, este es un consejo experto que desde 1947 en consulta con su Junta de Patrocinadores (CIncluye 9 premios Nobel), marca el tiempo que falta en una posible catástrofe global. Más que cualquier otra cosa, una advertencia para reflexionar sobre los riesgos que corremos y transmitir las amenazas creadas por el hombre a la existencia humana y al planeta.
Solo desde 2007 tiene el cambio climático ha entrado en el cálculo, convirtiéndose en uno de los aspectos centrales de la evaluación de riesgos. Pero para la guerra en Ucrania, el conflicto israelí-palestino y la inteligencia artificial se han agregado a lo largo de los años.
En 2024, la humanidad se acercó a la catástrofe cada vez más. Las tendencias que preocuparon profundamente los consejos para la ciencia y la seguridad han continuado y, a pesar de los signos inequívocos de peligro, los líderes nacionales y sus empresas no han podido hacer lo necesario para cambiar el curso. Como resultado, ahora movemos el reloj Apocalypse de 90 segundos de segundo a 89 segundos a medianoche, lo más cercano a la catástrofe que ha estado, lee la nota.
Porque el reloj Apocalypse se estableció 89 segundos desde la medianoche
Perspectivas nucleares
El riesgo de uso de la nuclear continúa creciendo debido a la acumulación de la capacidad y la descomposición de los tratados. Rusia suspendió el respeto por el nuevo tratado de inicio y retiró la ratificación del tratado para el aviso total de las pruebas nucleares. China está aumentando rápidamente su arsenal nuclear. Y Estados Unidos abdicaron su papel como voz de precaución. Parece inclinado a expandir su arsenal nuclear y adoptar una posición que fortalezca la creencia de que se puede manejar el uso «limitado» de las armas nucleares. Esta confianza mal colocada podría tropezar en una guerra nuclear, explica Manpreet Sethi, PhD, miembro Sasb, Boletín de los científicos atómicos,
Tecnologías disruptivas
Las propuestas para integrar la inteligencia artificial en las armas de guerra plantean preguntas sobre la medida en que las máquinas estarán autorizadas para tomar o apoyar las decisiones militares, incluso cuando estas decisiones podrían matar a gran escala, comenta Herb Lin, SCD, miembro Sasb, Boletín de los científicos atómicos. Incluso si un ser humano siempre toma la decisión final sobre el uso de armas nucleares, ¿cómo y cuándo, si es necesario, la IA debe usarse para apoyar este proceso de toma de decisiones? ¿Cómo debemos pensar en las armas autónomas letales, que identifican y destruyen los objetivos sin intervención humana? Mientras tanto, la disfunción cada vez mayor en el ecosistema de la información mundial molesta la capacidad de la sociedad para enfrentar desafíos difíciles y la inteligencia artificial tiene un gran potencial para acelerar el caos y el desorden «.
Cambio climático: impactos devastadores y progreso insuficiente
2024 fue el año más caluroso jamás registrado.
Las condiciones climáticas extremas y otros eventos climáticos (inundaciones, ciclones tropicales, calor extremo, sequía e incendios) han devastado a las empresas, ricas y pobres, así como ecosistemas de todo el mundo, explica Robert Socolow, PhD, miembro Sasb, Boletín de los científicos atómicos.
A pesar de esto, las emisiones globales de gases de efecto invernadero han seguido aumentando y las inversiones para la adaptación al cambio climático y la reducción de las emisiones de combustibles fósiles estuvo muy por debajo de lo necesario para evitar los peores impactos.
Ver esta publicación en Instagram
Amenazas biológicas
Las enfermedades infecciosas son una amenaza constante para la humanidad y la experiencia colectiva con Covid-19 ha aumentado el escepticismo sobre las recomendaciones de los funcionarios de salud pública, en particular en el uso de contramedidas médicas para mitigar la propagación de la enfermedad.
La preocupación también crece: concluye Suzet McKinney, DRPH, miembro Sasb, Boletín de los científicos atómicos – Para la proliferación de talleres de patógenos en todo el mundo, así como para el uso nocivo de la inteligencia artificial en la investigación y el desarrollo biológico. Colectivamente, los líderes deben establecer autoridades competentes para proporcionar información confiable, aumentar la señalización de los cambios en los modelos de enfermedades con el cambio climático, disminuir el número de talleres de alta contabilidad y reducir los programas activos de armas biológicas.