¿Podría la carrera por una inteligencia artificial avanzada aumentar los conflictos?
Las decisiones de los líderes sobre la inteligencia artificial avanzada pueden cambiar el mundo. Si quienes están al mando creen que crear una IA extremadamente poderosa dará ventajas militares y económicas irreversibles, es probable que actúen de forma anticipada para asegurarse ese control. Esto se conoce como ataques preventivos: movimientos para mantener la supremacía y evitar que los rivales logren ventajas definitivas. Si estos líderes esperan que la IA avance muy rápido y le temen a quedarse atrás, los riesgos de este tipo de acciones crecen.
¿Qué factores influyen en esta carrera? Todo depende de cuatro aspectos clave: el tamaño y la velocidad del cambio en la balanza de poder; cuánto rinden las estrategias de prevención; el costo de esas estrategias; y si se percibe el conflicto como inevitable. Cuanto más rápido y más radical sea la transformación impulsada por la IA, mayor será el riesgo de conflicto. Pero si el desarrollo es gradual, los países tienen tiempo de adaptarse y disminuye la urgencia de atacar primero.
¿Podemos reducir estos peligros? Sí. Fortalecer la infraestructura crítica, como datacenters y redes energéticas, hace más difícil que un ataque sorpresa tenga éxito. Si el proceso hacia una IA general depende de grandes infraestructuras, hacerlas resistentes y distribuidas sería imprescindible para la estabilidad global.