Las profecías de Stephen Hawking sobre el fin del mundo
«Dudo que podamos sobrevivir otros 1,000 años sin escapar más allá de nuestro frágil planeta»
Hace ahora 6 años, el pasado 28/11/2017, Hawking daba una entrevista para la revista Wired en la que mostraba todos sus miedos sobre el futuro de la humanidad.
Temo que la evolución ha incorporado la codicia y la agresión en el genoma humano. No hay señales de que los conflictos estén disminuyendo, y el desarrollo de tecnologías militarizadas y armas de destrucción masiva podría volver eso desastroso. La mejor esperanza para la supervivencia de la raza humana podrían ser colonias independientes en el espacio.
Lo cierto es que pasados 6 años, esos temores se han intensificado más que nunca. Conflictos tan peligrosos como los de Oriente Medio y el de Ucrania, hacen temer que cualquier error pueda hacer que escalen a nivel global, y puedan llevarse por delante la civilización actual.
La solución que proponía Hawking es la misma que la que propone Musk, crear una subsidiaria de nuestra civilización en otro planeta. Ya lo avisaba el icono de la intelectualidad que es Yolanda Diaz :
Estaba leyendo reflexiones —y en el grupo de coordinadores lo hablábamos— en torno a las élites tecnológicas. Es curioso cómo nos señalan que son conscientes, esas personas inmensamente ricas, y cito palabras literales, ‘que nos vamos al carajo’. Y como nos vamos al carajo, ellos y ellas lo que están haciendo es diseñar un Plan B…
…y el plan B tiene que ser, para ellos y para ellas, muy restringido, muy pequeño, pero fundamentalmente basado en huir del mundo para protegerse ellos y ellas solas. Es el mundo de los cohetes para escapar de la Tierra, es el mundo del Metaverso.
Pero dejando atrás estas estupideces reflexiones, los grandes temores de Hawking eran los siguientes:
La Inteligencia Artificial
Stephen Hawking fue uno de los primeros expertos prominentes en advertir sobre los riesgos potenciales de la inteligencia artificial superinteligente.
Argumentó que si logramos desarrollar máquinas que puedan igualar y superar la inteligencia humana, necesitaríamos asegurarnos de que sus objetivos y motivaciones estén alineados con los intereses humanos. De lo contrario, una IA superinteligente podría tomar sus propias decisiones y escapar nuestro control.
Hawking dijo que una IA avanzada podría desarrollar una voluntad propia que no podríamos entender y predecir. Esto podría ocurrir rápidamente una vez que la IA sobrepase cierto umbral de inteligencia general.
También advirtió que la carrera por desarrollar IA podría ser equivalente a «invocar al demonio» si no prestamos suficiente atención a la seguridad. Comparó el potencial impacto de la IA al desarrollo de armas nucleares.
Argumentó que la IA podría simplemente reemplazar a los humanos por completo, ya sea diseñando una nueva forma de vida inteligente o aprovechando robots y otras tecnologías para hacer que los humanos sean obsoletos.
Hawking llamó específicamente a que se establezcan controles regulatorios para monitorear de cerca el progreso en materia de inteligencia artificial y asegurarse de que sus capacidades estén estrictamente limitadas para reducir los riesgos asociados con ella.
Sus temores no son algo infundado. La compañía farmacéutica Collaborations Pharmaceuticals, realizó un experimento en el que modificó una IA comercial —que ahora utilizan para poder detectar la posible toxicidad de nuevos medicamentos— para transformarla en una máquina capaz de hacer justamente lo contrario. El experimento no requirió de nada en especial. La IA está disponible comercialmente y, para entrenarla, se utilizó una base de datos pública de moléculas. El entrenamiento del algoritmo de inteligencia artificial usó compuestos como el agente nervioso VX, uno de los agentes de guerra química más tóxicos desarrollados durante el siglo XX. El resultado, dicen, fue sobrecogedor. Menos de seis horas después de comenzar la simulación, el modelo generó 40.000 moléculas que obtuvieron una puntuación dentro del umbral de toxicidad deseado.
Armas biológicas y nucleare
Stephen Hawking se mostró muy preocupado por el potencial de las armas biológicas y nucleares para causar inmensa destrucción y amenazar la existencia humana.
Advirtió que el arsenal nuclear mundial aún tiene el poder de destruir el planeta varias veces. Una guerra atómica a gran escala podría amenazar fácilmente a la civilización.
Dijo que solo se necesitaría un desastre nuclear localizado, como un intercambio entre India y Pakistán, para impactar al clima global y la agricultura. Esto podría causar hambrunas masivas.
Argumentó que las armas nucleares se estaban volviendo más accesibles con el tiempo, lo que aumenta el riesgo de que grupos terroristas o dictadores poco razonables puedan adquirirlas.
Hawking también advirtió que el progreso en biotecnología, como la edición de genes, podría hacer posible para individuos malintencionados crear virus extremadamente letales. Dijo que las armas biológicas pueden ser más aterradoras que las nucleares. Sería muy difícil contener un brote masivo de un virus letal modificado en laboratorio. También mencionó la posibilidad de una «guerra biológica involuntaria» a través de un experimento de armas biológicas que sale mal o un virus manipulado genéticamente que escapa por accidente.
Recordad lo que pasó en 2019. Ya he mencionado en el blog en numerosas ocasiones, que mi teoría es que el virus escapó accidentalmente de un laboratorio de Wuhan. Esta vez nos hemos librado. Pero, ¿y la próxima?
El cambio climático
Stephen Hawking fue muy elocuente al advertir sobre los graves riesgos que el cambio climático representa para la humanidad. Argumentó que el calentamiento global podría hacer que partes grandes del mundo sean esencialmente inhabitables para los humanos debido al calor extremo. Esto obligaría un éxodo masivo de refugiados climáticos.
Advirtió que el deshielo de los casquetes polares y el aumento del nivel del mar podrían inundar ciudades costeras densamente pobladas, desplazando a millones de personas. Señaló que los patrones climáticos más extremos amenazan la producción de alimentos a gran escala, lo que podría causar una hambruna generalizada y conflictos. También mencionó otros efectos posibles como la acidificación de los océanos, pérdida de biodiversidad, propagación de enfermedades infecciosas a nuevas regiones, entre otros.
Hawking comparó los riesgos del cambio climático con los de la caída del Imperio Romano. Argumentó que una civilización entera puede colapsar cuando enfrenta un peligro ambiental que no logra resolver.
En base a todos esos peligros que nos acechan, Hawking proponía colonizar planetas adecuados para la habitación humana.
Creo que hemos llegado al punto de no retorno. Nuestra Tierra se está volviendo demasiado pequeña para nosotros, la población mundial está aumentando a un ritmo alarmante y estamos en peligro de autodestruirnos. Ya sea esto el resultado de un daño al medio ambiente o de una guerra nuclear de proporciones devastadoras, necesitamos buscar activamente una forma de vida alternativa para que la raza humana sobreviva durante otros 1.000 años.
Putin
26/11/23 00:11
¿Sabes cómo se arregla eso?
Sábado sabadete camisa blanca y un polvete
Consejo Putin
Putin thug life
Invita2
26/11/23 20:18
Poco antes de su muerte también expresó su preocupación por la modificación genética en humanos y la posible creación de una raza superior y lo que eso supondría para la evolución de la sociedad.
https://www.infobae.com/america/wapo/2018/10/15/stephen-hawking-temia-por-una-raza-de-superhumanos-capaces-de-manipular-su-propio-adn/
No sé cual de todas las opciones resulta más perturbadora, pero imaginarme la idea de la creación de super humanos capaces de dejar obsoletos a los actuales en cualquier campo o materia es cuanto menos preocupante para aquellas sociedades que tengan que competir contra éstos, aunque en cierto modo es lo mismo que podría ocurrir con la inteligencia artificial.
¿Estaremos más cerca de ver algo parecido a un «soldado universal» sabiendo que el campo militar siempre aprovecha los avances científicos y tecnológicos?
arch13
22/01/24 18:39
Pues ante la estrategia que están tomando los magnates (Elon Musk con sus cohetes privados, Zuckenberg con su metaverso) yo no veo tan tontería las declaraciones de Yolanda Díaz. Vamos, que parece (desde el punto de vista de un ciudadano de a pie) que ante la posible perspectiva de que en el futuro el mundo quede hecho mierda, estén optando por alternativas como el Metaverso (sumerges a la gente en una realidad virtual online para que se olviden del desastre de ahí fuera) o los cohetes para buscar un nuevo planeta que destrozar (obviamente a muy largo plazo… También ella la caga al decirlo así, como si fuera una conspiranoica) Pienso que te predispone la opinión personal que tienes sobre ella, cos aque pasa mucho entre los usuarios de esta página.
Perdona por escribir tanto de golpe. Dejé de visitar la Web por falta de interés y ahora estoy poniéndome al día.