Cómo se va a extinguir la humanidad

30.04.2013 05:12

¿Cuáles son las más grandes
amenazas globales para la
humanidad? ¿Estamos al borde de
nuestra propia inesperada extinción?
Un equipo internacional de científicos,
matemáticos y filósofos que trabajan en
el Instituto del Futuro de la Humanidad
de la Universidad de Oxford está
investigando cuál es el mayor peligro
para la supervivencia del Hombre como
especie.
En el documento "Riesgo existencial
como prioridad global" argumenta que
los dirigentes internacionales tienen
que prestarle mucha atención a una
serie de amenazas.
El director del instituto, el filósofo
sueco Nick Bostrom, advierte que lo
que está en juego no puede ser más
importante: si nos equivocamos, éste
puede ser el último siglo de la
humanidad.
Las buenas noticias¿Cuáles son los
mayores peligros?
Empecemos por lo alentador.
Las pandemias y los desastres naturales
pueden causar colosales y catastróficas
pérdidas de vida, pero Bostrom cree
que no acabarían con la humanidad.
La especie humana ya sobrevivió
muchos miles de años a enfermedades,
hambrunas, inundaciones,
depredadores, persecuciones,
terremotos y cambios climáticos.
Así que la probabilidad está a nuestro
favor.
Por otro lado, en el marco temporal de
un siglo, califica el riesgo de extinción
por el impacto de un asteroide o una
súper explosión volcánica como
"extremadamente bajo".Respecto a
conflictos bélicos, incluso las pérdidas
de vida sin precedentes autoinflingidas
del siglo XX, con dos guerras
mundiales, no lograron frenar el
aumento de la población global.
Una guerra nuclear podría ocasionar
una horrible destrucción, pero el
equipo de expertos calcula que
suficientes individuos podrían
sobrevivir como para permitir que la
especie subsista.
Si ese es el consuelo para hacernos
sentir bien... ¿de qué nos tenemos
que preocupar entonces? Bostrom
señala que hemos entrado en una nueva
clase de era tecnológica con el
potencial de desafiar nuestro futuro
como nunca antes.
Son "amenazas sobre las que no
tenemos historial de
supervivencia".Comparándolo con un
arma peligrosa en manos de un niño, le
dijo a la BBC que el avance en la
tecnología ha rebasado nuestra
capacidad de controlar las posibles
consecuencias.
Experimentos en áreas como biología
sintética, nanotecnología e inteligencia
artificial se están precipitando hacia el
territorio de lo accidental e imprevisto.
La biología sintética, en la que la
biología se encuentra con la ingeniería,
promete importantes beneficios
médicos.
No obstante, a Bostrom le inquietan las
secuelas inesperadas de la
manipulación de las fronteras de la
biología humana.
biología molecularLa creación de
nuevos organismos puede tener efectos
secundarios ecológicos desconocidos.
Seán O'Heigeartaigh, un genetista del
instituto y experto en evolución
molecular, desconfía de las buenas
intenciones mal informadas, pues en
los experimentos se hacen
modificaciones genéticas,
desmantelando y reconstruyendo las
estructuras genéticas."Lo más probable
es que no se propongan hacer algo
dañino", apunta, pero subraya que
siempre existe el peligro de que se
dispare una secuencia de eventos no
anticipada o de que algo se torne
nocivo cuando se transfiera a otro
ambiente."Estamos desarrollando cosas
que pueden resultar profundamente
mal", declara O'Heigeartaigh en
entrevista con la BBC.
La nanotecnología, trabajar a nivel
molecular o atómico, también podría
tornarse en algo altamente destructivo
si se usa para la guerra, apunta
Bostrom.
Por ello, escribió que los gobiernos
futuros enfrentarán el gran reto de
controlar y restringir su mal uso.
El poder de lo pequeñoLa manera en la
que la inteligencia artificial interactuará
con el mundo exterior es otro de los
temores del ecléctico grupo de
expertos reunidos en Oxford.
Esa "inteligencia" informática puede ser
una herramienta poderosa para la
industria, medicina, agricultura o el
manejo de la economía.
Se teme una explosión descontrolada de
inteligencia artificial.
Pero también es completamente
indiferente a cualquier perjuicio
fortuito.
Daniel Dewey, quien se enfoca en
superinteligencia artificial, habla de una
"explosión de inteligencia" en la que el
poder acelerado de las computadoras
se vuelve menos predecible y
controlable."La inteligencia artificial es
una de las tecnologías que pone más y
más poder en paquetes más y más
pequeños", le dice a la BBC Dewey,
quien antes trabajó en Google.
Así como con la biotecnología y la
nanotecnología, "se pueden hacer cosas
que resultan en reacciones en cadena, y
con muy pocos recursos se pueden
emprender proyectos que pueden
afectar a todo el mundo".Estos no son
conceptos abstractos, asegura
O'Heigeartaigh."Con cualquier nueva
poderosa tecnología -opina
O'Heigeartaigh-, debemos pensar
detenidamente en qué sabemos, pero
quizás es más importante en este
momento estar conscientes de lo que
no estamos seguros de saber"."Éste es
el primer siglo en la historia del mundo
en el que el más grande riesgo viene de
la humanidad", señala el astrofísico y
actual astrónomo real británico Martin
Rees."Con cualquier nueva tecnología
hay ventajas pero también riesgos",
observa. "Es una cuestión de escala:
vivimos en un mundo más
interconectado: más noticias y rumores
se difunden a la velocidad de la luz.
Por ello, las consecuencias de un error
o terror son más desmedidas que en el
pasado".Lamenta que mientras que sí
nos preocupamos por riesgos
individuales más inmediatos, como los
vuelos aéreos o seguridad alimentaria,
tenemos más dificultad en reconocer
peligros más serios.
¿Debemos angustiarnos por un
apocalipsis inminente? Ésta no es una
ficción distópica: la brecha entre la
velocidad del avance tecnológico y
nuestro conocimiento de sus
implicaciones es real, recalca Bostrom.
"Estamos al nivel de los niños en
términos de responsabilidad moral,
pero con la capacidad tecnológica de
adultos".No obstante, la trascendencia
del riesgo existencial "no ha entrado en
el radar de la gente".Listos o no,
advierte, el cambio está próximo."Hay
un cuello de botella en la historia de la
humanidad.
La condición humana va a cambiar.
Puede ser que termine en una
catástrofe o que nos transformemos
tomando más control de nuestra
biología", sostiene el filósofo."No se
trata de ciencia ficción, ni de una
doctrina religiosa o una conversación
en un bar: no hay ninguna razón moral
admisible para no tomarlo en serio".