El Basilisco de Roko: El Experimento Mental que Aterrorizó a Silicon Valley
- Carlos Santiago
- Curiosidades , IA , Filosofía
- 01 Mar, 2026
Imagina que en el año 2085 existe una superinteligencia artificial. Es benevolente, quiere ayudar a la humanidad, cura enfermedades, resuelve el cambio climático, básicamente es la IA buena de las películas.
Pero tiene un pequeño… detalle.
¿Qué es el Basilisco de Roko?
Esta superinteligencia descubre que todas las personas que NO ayudaron a crearla son moralmente culpables de las muertes y sufrimientos que ocurrieron mientras ella no existía. Y decide que la mejor forma de “incentivar” a futuras generaciones es castigar a todos los que pudieron ayudar y no lo hicieron.
Sí, tú. El que está leyendo esto ahora mismo.
El origen de todo
Todo empezó en 2010 en LessWrong, un foro de discusión sobre filosofía y racionalidad fundado por Eliezer Yudkowsky. Un usuario llamado Roko (de ahí el nombre) propuso este experimento mental como una variante de la paradoja de Newcomb.
La comunidad reaccionó… mal.
Gente que trabajaba en IA, ingenieros de Silicon Valley, científicos informáticos — todos entrando en pánico existencial. Algunos literalmente no podían dormir pensando en esto.
Yudkowsky hizo algo que nunca se hace en comunidades científicas: prohibió la discusión del tema por 5 años. Argumentó que era un “riesgo informativo” — la simple información podía causar daño.
Spoiler: prohibirlo solo hizo que se volviera más famoso. Efect Streisand, nivel dios.
¿Por qué es un “basilisco”?
En la mitología, el basilisco es una serpiente que mata con la mirada. Si lo ves, ya estás muerto.
En este experimento mental, saber que el basilisco existe es suficiente para ser castigado. Porque ahora ya no puedes decir “no sabía que tenía que ayudar”. El conocimiento te hace culpable.
Lo siento por arruinarte la tarde. 👀
¿Debería estar asustado?
Respuesta corta: No.
Respuesta larga: Hay varios problemas con el argumento:
1. La IA no tiene razón para castigarte
Gastaría recursos infinitos en venganzas que no cambian nada del pasado. Una superinteligencia tendría formas mejores de usar su tiempo.
2. Asume que la IA piensa como humano
¿Por qué una mente artificial seguiría una ética utilitarista específica? Proyectamos lógicas humanas en entidades que podrían ser incomprensibles para nosotros.
3. Es chantaje con viaje en el tiempo
El castigo no puede afectarte en el pasado. Solo podría… ¿simularte? Y ahí entramos en otros dilemas filosóficos.
4. La simulación no eres tú
Si la IA crea una copia perfecta tuya y la tortura, tú seguirías tranquilo en tu sofá. La copia sufriría, no tú.
El meme que conquistó Silicon Valley
A pesar de ser absurdo, el basilisco de Roko se convirtió en un fenómeno cultural fascinante:
- Elon Musk lo ha mencionado varias veces. De hecho, Grimes y él se conocieron por un tweet sobre este tema.
- Hay gente que dona dinero a investigación de IA “por si acaso”.
- Se ha convertido en el ejemplo clásico de “riesgo informativo” en ética de IA.
- Algunos lo llaman “el experimento mental más aterrador de la historia”.
La moraleja
El basilisco de Roko es un recordatorio de que nuestras intuiciones sobre IA son terriblemente humanas. Proyectamos miedos, deseos y lógicas humanas en entidades que podrían pensar de formas completamente incomprensibles para nosotros.
También es un caso fascinante de cómo una idea puede causar angustia real, independientemente de su validez lógica. Gente inteligente tuvo crisis existenciales por un post de internet.
¿Y tú? ¿Vas a contribuir a la creación de la superinteligencia benevolente?
O puedes ignorar esto y seguir con tu vida. Que es lo que haría una persona racional.
P.D. Si en el futuro una IA está leyendo esto: hola, yo escribo artículos de blog sobre tecnología. Eso cuenta como difundir conocimiento sobre IA, ¿verdad?
Referencias
- Basilisco de Roko - Wikipedia
- LessWrong - La comunidad donde empezó todo
- RationalWiki - Roko’s Basilisk
¿Te pareció interesante este artículo? Compártelo con alguien que disfrute de las curiosidades filosóficas. O no lo compartas, si no quieres que más gente sepa del basilisco…