Tecnología
Las dos advertencias de Stephen Hawking que podrían acabar con la humanidad
En una de sus últimas entrevistas, el reconocido físico teórico advirtió sobre los peligros del avance tecnológico, el daño ambiental y las consecuencias de las acciones humanas.
Siga las noticias de SEMANA en Google Discover y manténgase informado

Antes de su fallecimiento, en marzo de 2018, el reconocido físico teórico Stephen Hawking advirtió sobre varias amenazas que podrían poner en riesgo la supervivencia de la humanidad. Algunas de ellas resultaban evidentes, mientras que otras parecían más lejanas o hipotéticas.
Sin embargo, con el paso del tiempo, muchos de esos peligros —como el cambio climático, la inteligencia artificial o las posibles pandemias— han comenzado a manifestarse, lo que ha llevado a expertos y seguidores de su obra a reconsiderar la exactitud de sus advertencias.
Más allá de sus estudios sobre el universo y los agujeros negros, el astrofísico británico mostró una profunda preocupación por el futuro del planeta y el papel de la humanidad en él. En una de sus últimas intervenciones públicas, expresó su inquietud por el avance descontrolado de la tecnología, el impacto ambiental y los riesgos que podrían derivarse de las propias acciones humanas.
¿Cuáles son los riesgos que advirtió Stephen Hawking?
- La Tierra podría volverse inhabitable
Stephen Hawking advirtió que, si el cambio climático y la explotación de los recursos naturales seguían avanzando sin control, la Tierra podría volverse inhabitable hacia el año 2600. Según el científico, el planeta correría el riesgo de convertirse en una especie de “bola de fuego” por el incremento del efecto invernadero.
La superpoblación, junto con el consumo excesivo y la destrucción ambiental, eran para él señales claras de un posible colapso global que pondría fin a la civilización tal como se conoce.
Ante ese panorama, el físico planteaba la necesidad de que la humanidad buscara refugio en otros planetas. Su propuesta no solo respondía a la escasez de espacio y recursos, sino también a la posibilidad de enfrentar desastres naturales o catástrofes cósmicas inesperadas, como el impacto de un asteroide.

A lo largo de los años, Hawking modificó sus cálculos sobre el tiempo que le queda a la humanidad en la Tierra: primero habló de un siglo, luego de un milenio, y finalmente, durante la Cumbre Web de Tencent en Pekín, redujo esa estimación a menos de 600 años.
“Nos estamos quedando sin espacio y los únicos lugares a los que podemos ir son otros mundos. Es hora de explorar otros sistemas solares. Expandirnos puede ser lo único que nos salve de nosotros mismos. Estoy convencido de que los humanos necesitan irse de la Tierra”, dijo en 2017, un año antes de morir, en el festival científico y artístico Starmus, de Noruega.
- ¿Inteligencia artificial fuera de control?
Stephen Hawking reconocía el enorme potencial de la inteligencia artificial y, de hecho, dependía de ella para comunicarse debido a la esclerosis lateral amiotrófica (ELA) que le impedía hablar y moverse. Su vida era una muestra del valor práctico de esta tecnología, pero también del equilibrio que debía existir entre su avance y el control humano.

Aun así, el científico mantenía una postura cautelosa frente a su evolución. En 2014, cuando la IA aún estaba en una etapa inicial, Hawking señaló que podía ser una herramienta beneficiosa, pero advirtió que una inteligencia artificial completamente desarrollada podría representar una amenaza existencial.
Según él, si las máquinas llegaban a superar la inteligencia humana, podrían tomar decisiones imprevisibles que pondrían en riesgo el futuro de la humanidad.
“Los humanos, que somos seres limitados por nuestra lenta evolución biológica, no podremos competir con las máquinas y seremos superados por ellas”, pronosticó.