¿Cómo se extinguirá la humanidad?

¿Cómo se extinguirá la humanidad?

Según la Universidad de Oxford, las mayores amenazas no son las enfermedades, ni las guerras, ni las catástrofes naturales, sino el mal uso de la genética y de la tecnología.

¿UN PELIGRO? Un estudio alerta acerca de la manipulación genética y el desarrollo de inteligencia artificial sin responsabilidad. FOTO TOMADA DE CIENCIAYTECNOLOGIA.BLOGSPOT ¿UN PELIGRO? Un estudio alerta acerca de la manipulación genética y el desarrollo de inteligencia artificial sin responsabilidad. FOTO TOMADA DE CIENCIAYTECNOLOGIA.BLOGSPOT
28 Abril 2013
OXFORD, Inglaterra.- La supervivencia de la humanidad está en riesgo, y no por la amenaza de una pandemia, un bombardeo nuclear, meteorito u otro tipo de catástrofe natural. La amenaza, al parecer, somos nosotros mismos.

Un equipo internacional de científicos, matemáticos y filósofos que trabajan en el Instituto del Futuro de la Humanidad de la Universidad de Oxford argumenta, en el documento "Riesgo existencial como prioridad global" argumenta que los dirigentes internacionales tienen que prestarle mucha atención a una serie de amenazas.

Lo que está en juego tiene la más alta prioridad, alerta el director del instituto, el filósofo sueco Nick Bostrom. Si nos equivocamos, dice, éste puede ser el último siglo de la humanidad.

Las buenas noticias, según consigna el sitio de la cadena británica BBC Mundo, consisten en que las pandemias y los desastres naturales pueden causar colosales y catastróficas pérdidas de vida, pero Bostrom cree que no acabarían con la humanidad. La especie humana ya sobrevivió muchos miles de años a enfermedades, hambrunas, inundaciones, depredadores, persecuciones, terremotos y cambios climáticos. Así que la probabilidad está a nuestro favor.

Por otro lado, en el marco temporal de un siglo, califica el riesgo de extinción por el impacto de un asteroide o una súper explosión volcánica como "extremadamente bajo".

Respecto a conflictos bélicos, incluso las pérdidas de vida sin precedentes autoinflingidas del siglo XX, con dos guerras mundiales, no lograron frenar el aumento de la población global.

Una guerra nuclear podría ocasionar una horrible destrucción, pero el equipo de expertos calcula que suficientes individuos podrían sobrevivir como para permitir que la especie subsista.

Entonces ¿de qué nos tenemos que preocupar? Bostrom señala que hemos entrado en una nueva clase de era tecnológica con el potencial de desafiar nuestro futuro como nunca antes. Son "amenazas sobre las que no tenemos historial de supervivencia".

Comparándolo con un arma peligrosa en manos de un niño, le dijo a la BBC que el avance en la tecnología ha rebasado nuestra capacidad de controlar las posibles consecuencias.

Experimentos en áreas como biología sintética, nanotecnología e inteligencia artificial se están precipitando hacia el territorio de lo accidental e imprevisto.

La biología sintética, en la que la biología se encuentra con la ingeniería, promete importantes beneficios médicos. No obstante, a Bostrom le inquietan las secuelas inesperadas de la manipulación de las fronteras de la biología humana.

La creación de nuevos organismos, por ejemplo, puede tener efectos secundarios ecológicos desconocidos.

Seán O'Heigeartaigh, un genetista del instituto y experto en evolución molecular, desconfía de las buenas intenciones mal informadas, pues en los experimentos se hacen modificaciones genéticas, desmantelando y reconstruyendo las estructuras genéticas. "Estamos desarrollando cosas que pueden resultar profundamente mal", declara O'Heigeartaigh.

La nanotecnología, trabajar a nivel molecular o atómico, también podría tornarse en algo altamente destructivo si se usa para la guerra, apunta Bostrom. Por ello, escribió que los gobiernos futuros enfrentarán el gran reto de controlar y restringir su mal uso.

La manera en la que la inteligencia artificial interactuará con el mundo exterior es otro de los temores del ecléctico grupo de expertos reunidos en Oxford. Esa "inteligencia" informática puede ser una herramienta poderosa para la industria, medicina, agricultura o el manejo de la economía.

Daniel Dewey, quien se enfoca en superinteligencia artificial, habla de una "explosión de inteligencia" en la que el poder acelerado de las computadoras se vuelve menos predecible y controlable.

Así como con la biotecnología y la nanotecnología, "se pueden hacer cosas que resultan en reacciones en cadena, y con muy pocos recursos se pueden emprender proyectos que pueden afectar a todo el mundo".

"Con cualquier nueva poderosa tecnología -opina O'Heigeartaigh-, debemos pensar detenidamente en qué sabemos, pero quizás es más importante en este momento estar conscientes de lo que no estamos seguros de saber".

"Éste es el primer siglo en la historia del mundo en el que el más grande riesgo viene de la humanidad", señala el astrofísico y actual astrónomo real británico Martin Rees.

"Estamos al nivel de los niños en términos de responsabilidad moral, pero con la capacidad tecnológica de adultos", advierte. LA GACETA

Tamaño texto
Comentarios
Comentarios