¿Podría la IA ser la CULPABLE de nuestra FALTA de CONTACTO con EXTRATERRESTRES inteligentes? 

¿Qué pasaría si la inteligencia artificial fuera un obstáculo inevitable que todas las civilizaciones inteligentes deben superar? 

Michael Garrett: La inteligencia artificial (IA) ha avanzado a un ritmo asombroso en los últimos años. Algunos científicos están pensando ahora en el desarrollo de la superinteligencia artificial (IAA), una forma de IA que no sólo superaría la inteligencia humana, sino que no estaría limitada por la velocidad de aprendizaje de los humanos. 
 
Pero ¿y si este hito no es sólo un logro notable? ¿Y si también representa un formidable cuello de botella en el desarrollo de todas las civilizaciones, tan desafiante que frustra su supervivencia a largo plazo? 
 
Esta idea es el núcleo de un artículo de investigación que publiqué recientemente en Acta Astronautica. ¿Podría la IA ser el “gran filtro” del universo, un umbral tan difícil de superar que impide que la mayoría de la vida evolucione hacia civilizaciones espaciales? 
 
Este es un concepto que podría explicar por qué la búsqueda de inteligencia extraterrestre (Seti) aún no ha detectado las señales de civilizaciones técnicas avanzadas en otras partes de la galaxia. 
 
La hipótesis del gran filtro es, en última instancia, una solución propuesta a la paradoja de Fermi. Esto nos lleva a preguntarnos por qué, en un universo tan vasto y antiguo como para albergar miles de millones de planetas potencialmente habitables, no hemos detectado ningún signo de civilización extraterrestre. La hipótesis sugiere que existen obstáculos insalvables en la línea de tiempo evolutiva de las civilizaciones que les impiden convertirse en entidades capaces de viajar por el espacio. 
 
Creo que la aparición de la IA podría ser uno de esos filtros. El rápido avance de la IA, que podría conducir a la IA, puede cruzarse con una fase crítica en el desarrollo de una civilización: la transición de una especie de un solo planeta a una multiplanetaria. 
 
Aquí es donde muchas civilizaciones podrían fallar, y la IA podría progresar mucho más rápido que nuestra capacidad para controlarla o para explorar y poblar de manera sostenible nuestro Sistema Solar. 
 
El desafío de la IA, y en concreto de la IA, reside en su naturaleza autónoma, autoamplificadora y mejoradora. Posee el potencial de mejorar sus propias capacidades a una velocidad que supera nuestras propias líneas de tiempo evolutivas sin IA. 
 
El potencial de que algo salga muy mal es enorme, lo que llevaría a la caída de las civilizaciones biológicas y de la IA antes de que tengan la oportunidad de convertirse en multiplanetarias. Por ejemplo, si las naciones dependen cada vez más de sistemas de inteligencia artificial autónomos que compiten entre sí y ceden poder a ellos, las capacidades militares podrían utilizarse para matar y destruir a una escala sin precedentes, lo que podría conducir a la destrucción de toda nuestra civilización, incluidos los propios sistemas de inteligencia artificial. 
 
En este escenario, estimo que la longevidad típica de una civilización tecnológica podría ser inferior a 100 años. Ese es aproximadamente el tiempo transcurrido entre la capacidad de recibir y transmitir señales entre las estrellas (1960) y la aparición estimada de la IEA (2040) en la Tierra. Es un tiempo alarmantemente corto si lo comparamos con la escala de tiempo cósmica de miles de millones de años. 
 
Esta estimación, cuando se incorpora a versiones optimistas de la ecuación de Drake (que intenta estimar el número de civilizaciones extraterrestres activas y comunicativas en la Vía Láctea), sugiere que, en un momento dado, solo hay un puñado de civilizaciones inteligentes. Además, al igual que nosotros, sus actividades tecnológicas relativamente modestas podrían hacer que sea bastante difícil detectarlas. 

Llamada de atención 
 
Esta investigación no es simplemente una historia de advertencia sobre un posible desastre. Sirve como una llamada de atención para que la humanidad establezca marcos regulatorios sólidos para guiar el desarrollo de la IA, incluidos los sistemas militares. 
 
No se trata solo de prevenir el uso malévolo de la IA en la Tierra; también se trata de asegurar que la evolución de la IA se alinee con la supervivencia a largo plazo de nuestra especie. Sugiere que necesitamos invertir más recursos en convertirnos en una sociedad multiplanetaria lo antes posible, un objetivo que ha permanecido latente desde los vertiginosos días del proyecto Apolo, pero que últimamente ha sido reavivado por los avances realizados por empresas privadas. 
 
Como señaló el historiador Yuval Noah Harari, nada en la historia nos ha preparado para el impacto de la introducción de entidades superinteligentes no conscientes en nuestro planeta. Recientemente, las implicaciones de la toma de decisiones autónoma de la IA han llevado a destacados líderes en el campo a pedir una moratoria en el desarrollo de la IA, hasta que se pueda introducir una forma responsable de control y regulación. 
 
Pero incluso si todos los países aceptaran cumplir reglas y regulaciones estrictas, será difícil controlar a las organizaciones rebeldes. 
 
La integración de la IA autónoma en los sistemas de defensa militar debe ser un área de especial preocupación. Ya hay evidencia de que los humanos cederán voluntariamente un poder significativo a sistemas cada vez más capaces, porque pueden realizar tareas útiles mucho más rápida y eficazmente sin intervención humana. Por lo tanto, los gobiernos son reacios a regular en esta área dadas las ventajas estratégicas que ofrece la IA, como se ha demostrado recientemente y de manera devastadora en Gaza. 
 
Esto significa que ya nos acercamos peligrosamente a un precipicio en el que las armas autónomas operan más allá de los límites éticos y eluden el derecho internacional. En un mundo así, ceder poder a los sistemas de IA para obtener una ventaja táctica podría desencadenar inadvertidamente una cadena de eventos altamente destructivos que se intensificarían rápidamente. En un abrir y cerrar de ojos, la inteligencia colectiva de nuestro planeta podría ser borrada. 
 
La humanidad está en un punto crucial de su trayectoria tecnológica. Nuestras acciones ahora podrían determinar si nos convertimos en una civilización interestelar duradera o sucumbimos a los desafíos planteados por nuestras propias creaciones. 
 
El uso de Seti como lente a través del cual podemos examinar nuestro desarrollo futuro añade una nueva dimensión al debate sobre el futuro de la IA. Depende de todos nosotros asegurarnos de que cuando alcancemos las estrellas, lo hagamos no como una advertencia para otras civilizaciones, sino como un faro de esperanza: una especie que aprendió a prosperar junto a la IA. 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

You May Also Like