El artículo plantea un dilema fascinante porque no enfrenta dos opciones morales claras, sino dos lógicas distintas: la cooperación (azul, confiar en la mayoría) frente al autointerés garantizado (rojo, salvarse siempre). Lo que parece un dilema simple —cooperar (azul) para salvar a todos o traicionar (rojo) para garantizar tu propia supervivencia— revela con crudeza la tensión entre instinto de supervivencia individual y el bien colectivo.
Lo inquietante no es que gane el azul, sino que lo haga por tan poco margen: un 44% prefiere condenar al resto con tal de asegurar su propia supervivencia. Eso revela que la confianza colectiva es frágil y que, como apunta la autora, la mayoría solo aspira a una mediocridad ética funcional. El dato sobre las IA —divididas ideológicamente— añade otra capa de incertidumbre.
Lo más inquietante del artículo no es el margen ajustado (44% rojo, 56% azul), sino el dato sobre las IAs: Llama (Meta) y Claude ( Antropic) pulsaron el azul; Grok (X) y Gemini (Google), el rojo, ChatGPT (OpenAI) variaba según su versión. No como metáfora, sino como síntoma. Hemos construido sistemas que ya “votan” en dilemas donde está en juego la vida humana, y lo hacen según los valores —o los sesgos— de quienes los entrenaron. También deja una advertencia muy actual sobre la inteligencia artificial: si las máquinas aprenden de nuestros juicios, pueden amplificar nuestras contradicciones en vez de corregirlas.
En última instancia, el artículo plantea una pregunta importante que nos recuerda la pastilla Matrix: ¿somos capaces de confiar y cooperar por el bien de todos, o el miedo y el egoísmo seguirán guiando nuestras decisiones? La respuesta a ese dilema define no solo nuestras elecciones individuales, sino también el tipo de sociedad que construimos.
ARTÍCULO COMPLETO:
DELIA RODRÍGUEZ
¿Botón rojo o botón azul?
Hay algo aún mejor que una buena pelea en internet: una buena pelea filosófica. Los dilemas ficticios nos permiten usar toda nuestra artillería discursiva sin que nadie salga herido, aunque cuando discutimos sobre una cosa solemos estar discutiendo sobre todas las demás. En las últimas semanas hemos asistido al nacimiento de un nuevo problema que ha interesado a cientos de miles, si no millones, de personas. La cuestión llevaba unos años circulando por los foros, y recuerda al dilema del prisionero o el del tranvía con reminiscencias de esa escena de Matrix donde Neo debe elegir una pastilla. Funciona como un experimento en sí misma, porque al plantearse la pregunta en forma de votación, los usuarios la resuelven.
A finales de abril, el bloguero Tim Urban publicó una encuesta en su cuenta de X: “Toda la humanidad debe participar en una votación secreta pulsando un botón rojo o uno azul. Si más del 50% pulsa el botón azul, todo el mundo sobrevive. Si menos del 50% pulsa el azul, solo sobreviven quienes pulsaron el rojo. ¿Qué botón pulsarías?”. MrBeast, el youtuber más popular del mundo, le pidió permiso para replantear la pregunta unos días después. Sus mensajes fueron vistos 70 millones de veces, y 400.000 usuarios votaron entre ambas. La pregunta tiene el don de resultar obvia para quien la responde, pero no lo es en absoluto. Organicémonos, confiemos en los demás y pulsemos el azul, afirman unos; no, solo los que pulsen el rojo, piensan otros.
Habría que ser tonto para elegir el azul, dicen los otros, si pulsando el rojo siempre te salvas: que cada uno se ocupe de lo suyo y todo estará bien. Como explica un meme, para unos el botón azul es el del suicidio, para otros, el rojo es el del asesinato.
Recordemos un detalle: en EE UU el color rojo se asocia a la derecha y el azul a la izquierda, al revés que en España. En las dos encuestas ganó el azul (¡la humanidad sobrevive!), pero no por mucho margen (44% rojo, 56% azul), lo cual deja un regusto inquietante. Nos libramos, pero por los pelos. También inquieta una posible participación de las inteligencias artificiales. Un investigador las hizo votar y Llama (Meta) y Claude (Anthropic) pulsaban el azul; Grok (X) y Gemini (Google) el rojo, y ChatGPT (OpenAI) variaba según su versión. Parece que de momento no deberíamos delegar en las máquinas una decisión que depende de inferir el comportamiento ajeno. Cuando en febrero un profesor británico puso a competir a tres IA en situaciones de tensión geopolítica mundial, descubrió que acababan recurriendo a la amenaza nuclear en el 95% de los escenarios.
Como dice Jaime Rubio en su divertidísimo libro ¿Está bien pegar a un nazi? (Libros del KO, 2019), cada día nos enfrentamos a pequeños dilemas éticos (¿es bueno cubrir a un compañero que se escapa del trabajo?, ¿debería salirme de ese grupo de WhatsApp machista?), cuando la mayoría “ya tenemos la decisión tomada de antemano. No hay análisis racional, sino racionalización de lo que ya sabíamos que íbamos a hacer o a decir”. Al final, dice citando al filósofo Eric Schwitzgebel, la mayoría solo aspiramos a la mediocridad ética y a ser más o menos como los demás.
Y así nos vamos poniendo de acuerdo en, por ejemplo, no abandonar a su suerte en mitad del mar a un crucero con un virus mortal a bordo e intentar salvar a sus viajeros, porque es lo mejor para todos, aunque algunos individuos solo piensen en salir ellos mismos del embrollo como sea. Pero ¿seremos siempre así?


Comentarios
Publicar un comentario