Líderes Mundiales y Científicos Exigen Detener el Desarrollo de Inteligencia Superior a la Humana
Una coalición sin precedentes de más de 700 científicos, líderes tecnológicos, figuras políticas y celebridades, incluyendo al Príncipe Enrique y Steve Wozniak, ha emitido un llamado urgente para detener el desarrollo de una Inteligencia Artificial (Super-IA) que supere las capacidades intelectuales humanas.
La iniciativa, impulsada por el Future of Life Institute, una organización sin ánimo de lucro con sede en Estados Unidos, advierte que la carrera por alcanzar la Super-IA carece de un marco regulatorio y un consenso científico sobre su control y seguridad.
Un Frente Común contra el Desarrollo Descontrolado
Entre los firmantes de la petición se encuentran algunas de las mentes más brillantes detrás de la IA moderna, como Geoffrey Hinton (Nobel de Física 2024), Stuart Russell (Universidad de California en Berkeley) y Yoshua Bengio (Universidad de Montreal).
La preocupación es compartida por figuras influyentes de diversos ámbitos:
- Tecnología y Negocios: Richard Branson (Fundador de Virgin Group) y Steve Wozniak (Cofundador de Apple).
- Política: Steve Bannon (ex-asesor presidencial) y Susan Rice (ex-consejera de seguridad nacional).
- Ética y Religión: Paolo Benanti (asesor del Papa y experto principal del Vaticano en IA).
- Entretenimiento: El cantante estadounidense will.i.am y el Príncipe Enrique y Meghan Markle.
El comunicado del Future of Life Institute es contundente: “Hacemos un llamado para que se detenga el desarrollo de una superinteligencia, hasta que no exista un consenso científico para construirla de forma controlada y segura, y mientras no exista el apoyo de la población”.

El Riesgo Sin Marco Regulatorio
Mientras compañías como OpenAI (creadora de ChatGPT) proyectan que el umbral de la Super-IA podría alcanzarse en tan solo cinco años, los críticos argumentan que el riesgo es inaceptable.
Max Tegmark, presidente de Future of Life Institute, declaró que es indiferente si la Super-IA llega en «dos o quince años,» lo crucial es que las empresas no deberían trabajar en estos proyectos “sin ningún marco regulatorio”.
Tegmark aclaró que la oposición a la Super-IA no es un rechazo a toda la tecnología: «Se puede estar a favor de la creación de herramientas de Inteligencia Artificial más potentes, por ejemplo, para curar el cáncer, y al mismo tiempo estar en contra de la superinteligencia». La iniciativa busca diferenciar el progreso tecnológico controlado de la creación de una inteligencia que exceda la capacidad humana sin garantías de seguridad.

