Exigen una pausa en el desarrollo de la superinteligencia artificial
En una muestra de creciente preocupación por el futuro de la inteligencia artificial, un grupo de figuras influyentes del mundo tecnológico y político ha firmado una carta instando a los gobiernos a prohibir el desarrollo de la superinteligencia hasta que se demuestre su controlabilidad y se obtenga la aprobación pública. La iniciativa, promovida por el Future of Life Institute, ha generado un debate global sobre los riesgos y beneficios de la IA avanzada.
La carta, disponible en superintelligence-statement.org/, enumera una serie de inquietudes, incluyendo la posible obsolescencia económica humana, la pérdida de libertades civiles y el riesgo, en escenarios extremos, de la extinción humana. La lista de firmantes es impresionante, incluyendo a figuras como Yoshua Bengio y Geoffrey Hinton, considerados "padres" de la IA, junto con Steve Wozniak y Richard Branson. Notablemente, la ausencia de líderes de OpenAI, Google, Anthropic, xAI y Meta ha generado cierta controversia, aunque un empleado actual de OpenAI, Leo Gao, sí figura entre los firmantes.
La iniciativa se produce en un contexto de creciente debate sobre la velocidad del desarrollo de la IA. Una encuesta reciente, detallada en futureoflife.org, revela que el 61% de los estadounidenses cree que la IA avanzada, sin salvaguardias, podría causar un daño significativo a la humanidad. Además, un 59% carece de confianza en las empresas estadounidenses para desarrollar y utilizar la IA de manera responsable. La encuesta también indica que la mayoría espera que la IA de nivel experto se desarrolle en los próximos dos años y la superinteligencia en cinco.
Si bien la carta y la encuesta reflejan una creciente preocupación, también plantean preguntas sobre la viabilidad de una prohibición. Definir qué constituye "superinteligencia" y cómo controlar su desarrollo son desafíos complejos. Además, la ausencia de los principales actores de la industria de la IA sugiere una posible resistencia a una medida tan drástica.
La iniciativa del Future of Life Institute no es la primera llamada a la precaución en el desarrollo de la IA, pero sí parece indicar una creciente urgencia en el debate. La necesidad de un diálogo abierto y una regulación responsable se vuelve cada vez más evidente a medida que la IA continúa avanzando a un ritmo sin precedentes. La pregunta ahora es si los gobiernos y la industria de la IA responderán a estas preocupaciones y adoptarán medidas para garantizar un futuro en el que la IA sirva a la humanidad, en lugar de amenazarla.
