MUNDO

NOTICIAS

MUNDO



22/10/202504:00 p.m.Autor: RedacciónFuente: Agencias

Expertos piden frenar la superinteligencia artificial


Desarrollo seguro y regulación internacional en debate sobre IA avanzada

PIDEN FRENAR LA SUPERINTELIGENCIA ARTIFICIAL

Más de 700 científicos, líderes políticos y celebridades internacionales, entre ellos el príncipe Enrique y Meghan Markle, firmaron una carta abierta en la que piden frenar el desarrollo de una superinteligencia artificial, es decir, sistemas capaces de superar las capacidades cognitivas humanas.

La iniciativa, promovida por el Future of Life Institute (FLI) —una organización sin fines de lucro con sede en Estados Unidos dedicada a analizar los riesgos tecnológicos—, advierte que este tipo de avances podrían tener consecuencias graves para la humanidad, desde la pérdida de empleos masiva hasta riesgos existenciales.

"Llamamos a detener la creación de una superinteligencia hasta que exista un consenso científico sobre cómo desarrollarla de forma segura y con el respaldo social necesario", señala el comunicado publicado por el FLI.

Entre los firmantes se encuentran figuras clave del mundo de la inteligencia artificial como Geoffrey Hinton (Premio Nobel de Física 2024), Stuart Russell (profesor de la Universidad de California en Berkeley) y Yoshua Bengio (Universidad de Montreal).

También se sumaron empresarios tecnológicos como Richard Branson (Virgin) y Steve Wozniak (Apple), además de personalidades políticas como Steve Bannon y Susan Rice, y líderes religiosos como Paolo Benanti, asesor del Papa y experto en ética digital del Vaticano.

El director de OpenAI, Sam Altman, creador de ChatGPT, ha advertido que el umbral de la superinteligencia podría alcanzarse en unos cinco años, mientras otras estimaciones lo ubican entre dos y quince años. Sin embargo, especialistas como Max Tegmark, presidente del FLI, sostienen que avanzar en esa dirección sin un marco regulatorio global sería inaceptable.

"Se puede apoyar el desarrollo de IA avanzada para curar enfermedades o resolver problemas científicos, pero no una superinteligencia fuera de control", afirmó Tegmark en declaraciones a AFP.

La preocupación no es nueva. En 2023, el mismo instituto ya había impulsado una carta similar que pedía pausar durante seis meses el entrenamiento de sistemas más potentes que GPT-4.

Desde entonces, las advertencias se han intensificado, pues la mayoría de las grandes tecnológicas buscan desarrollar la llamada Inteligencia Artificial General (IAG), capaz de igualar —y eventualmente superar— la mente humana.

Según reportes recientes de medios internacionales como Financial Times y Reuters, la lista de firmantes ya supera las 800 personas, incluyendo científicos, líderes religiosos, activistas, artistas y empresarios.

Las encuestas realizadas por el FLI muestran que sólo el 5 % de la población estadounidense apoya desarrollar IA sin regulación, mientras que la mayoría exige controles más estrictos.

La carta propone establecer una gobernanza internacional de la IA avanzada, con medidas como:

  • Limitar el poder de cómputo utilizado para entrenar grandes modelos.
  • Auditar y certificar los sistemas antes de su implementación.
  • Crear consorcios multinacionales para supervisar la IA general y garantizar que su uso sea ético y seguro.

El llamado ha reavivado el debate global sobre la urgencia de una regulación internacional, en un contexto en el que la tecnología avanza más rápido que las políticas que podrían controlarla.

"La superinteligencia no es una cuestión de ciencia ficción, es una cuestión de responsabilidad", concluye la carta del Future of Life Institute.

Loading...