martes, 27 de enero de 2015

Cinco grandes amenazas para la humanidad

El prestigioso científico Anders Sandberg, escritor transhumanista, doctor en neurociencia computacional por la Universidad de Estocolmo y miembro del influyente  Instituto del Futuro de la Humanidad de la Universidad de Oxford, ha sido consultado por el portal The Raw Story acerca de los mayores peligros que acechan a la humanidad, causas posibles del tan mentado Apocalipsis. Además de elaborar una lista con las cinco amenazas más grandes para nuestra civilización (casi todas provenientes del propio humano y no de su entorno natural), Sandberg agregó que, si bien desde hace siglos las personas hablan sobre un posible Apocalipsis, muy pocos han pensado en cómo evitarlo; por el contrario, durante el último siglo, la humanidad se ha encargado de desarrollar y perfeccionar los factores de riesgo.

El invierno nuclear


Una guerra nuclear a gran escala mataría a cientos de millones de personas en forma directa o a través de sus efectos secundarios, pero la verdadera amenaza estaría en el “invierno nuclear”: una increíble cantidad de hollín lanzada a la estratosfera que causaría un enfriamiento y sequía del mundo entero en pocos años, impidiendo la agricultura en gran parte del mundo. Por esta razón, miles de millones de personas morirían de hambre, quedando supervivientes dispersos por el planeta, a merced de otras amenazas, como enfermedades mortales.

Bioingeniería pandémica


Las pandemias naturales no podrían acabar con la humanidad, ya que siempre hay algunas personas resistentes al patógeno. Sin embargo, el propio ser humano puede hacer las enfermedades más peligrosas. Uno de los ejemplos es el famoso gen mousepox, introducido en un ratón con viruela, que hizo la enfermedad mucho más letal y capaz de infectar a los individuos vacunados. Sandberg explica que, si bien acabar con la humanidad no es militarmente útil, siempre hay alguien que hace las cosas sólo porque puede.

Superinteligencia


La forma de inteligencia más poderosa hasta la fecha es el software. Cuando se vuelva lo suficientemente potente como para mejorarse a sí mismo provocará una "explosión de inteligencia" que extendería la diferencia de poder entre el sistema inteligente (las personas que le indican a la máquina lo que debe hacer) y el resto del mundo. Este poder podría ser desastroso en malas manos.

Nanotecnología


La nanotecnología en sí misma no es peligrosa, pero su aumento exponencial de potencia también aumenta la posibilidad de sus abusos. El desarrollo de la nanotecnología "podría actuar como un gas nervioso, que busca a las víctimas con el fin de mantener las poblaciones obedientes", además de permitir la proliferación nuclear y la ingeniería climática.

El silencio


La más inquietante de todas las amenazas es la aparición de algo desconocido y muy mortal de lo que todavía no tenemos ni idea.  "El silencio en el cielo podría ser evidencia de esto": ¿la ausencia de extraterrestres se debe al hecho de que la vida y la inteligencia son excepcionales o a que tienden a ser aniquiladas?
Powered by Ojo Sabio