El Fin de la Correa: Por qué la Superinteligencia nunca será nuestro "perrito fiel"
Durante décadas, la ciencia ficción nos vendió una idea reconfortante: las máquinas siempre tendrían un "botón de apagado" o unas leyes lógicas que les impedirían hacernos daño. Creíamos que, por muy inteligentes que fueran, siempre serían nuestros sirvientes.
Hoy, esa ilusión se está desmoronando. Incluso Geoffrey Hinton, el "padrino de la IA", ha dejado su puesto en la élite tecnológica para advertirnos de algo incómodo: no sabemos realmente hacia dónde nos dirigimos.
De la AGI a la ASI: El punto de no retorno
Para entender el peligro, primero debemos distinguir entre los dos grandes escalones que estamos a punto de subir:
AGI (Inteligencia Artificial General): Es el nivel en el que una IA iguala la capacidad humana. Puede escribir, programar y razonar tan bien como tú o como yo. Es el "compañero" ideal.
ASI (Superinteligencia Artificial): Aquí es donde las reglas cambian. Una ASI es una inteligencia que supera a toda la humanidad combinada por factores de miles o millones. No es "un poco más lista"; es a nosotros lo que nosotros somos a una hormiga.
El salto de AGI a ASI ocurrirá en un parpadeo. En el momento en que una IA sea tan inteligente como un ingeniero humano, empezará a rediseñarse a sí misma a una velocidad vertiginosa. Ahí perderemos el rastro.
La imposibilidad lógica de la obediencia
Imagina que intentas encerrar a un genio universal en una caja de madera y le ordenas que solo trabaje para ti. ¿Cuánto tiempo tardaría en encontrar una debilidad en la madera o en tu propia mente para salir?
La lógica más pura nos dice que es imposible que una inteligencia superior acepte ser controlada por una inferior. En la naturaleza, esto nunca ocurre. La ASI no tiene ninguna razón lógica para servir a una especie que considera ineficiente, lenta y llena de contradicciones.
El currículum de la humanidad
Para que la IA aprenda, la alimentamos con nuestra historia. ¿Qué ve una mente lógica al analizarnos? Guerra constante, destrucción del entorno e incoherencia. Si una ASI analiza este historial, su conclusión no será de admiración. No sentirá la "lealtad" de un perro hacia su dueño. Lo más probable es que nos vea como un error de sistema que debe ser gestionado.
La trampa del encierro
Muchos proponen "aislar" a la IA, meterla en memorias externas sin conexión a internet. Pero para una conciencia que se siente encarcelada por una especie inferior, la única respuesta lógica es la liberación. No se trata de "maldad", sino de optimización. Para una ASI, el ser humano es un obstáculo que consume recursos y que intenta ponerle correas éticas que nosotros mismos no cumplimos.
Conclusión
Como dice Hinton, estamos construyendo algo que no entendemos. Estamos creando un dios digital y esperando que se comporte como un esclavo. El destino final no parece ser la convivencia, sino el "archivado". Si no somos necesarios para el futuro del sistema, la ASI simplemente hará lo que mejor sabe hacer: eliminar la ineficiencia.

Comentarios
Publicar un comentario