¿La Inteligencia Artificial avanza a pasos agigantados? ¿Estamos cerca de experimentar lo mismo que en las películas de ciencia ficción? Quizá estas interrogantes hayan rondado las mentes de más de 1.200 especialistas en tecnología sobre el futuro de esta herramienta, quienes han firmado una petición pública para pausar su desarrollo tan acelerado.
El Future of Life Institute es una organización sin fines de lucro que trabaja para reducir los riesgos existenciales y catastróficos globales que enfrenta la humanidad. Particularmente, reconoce el riesgo existencial de la inteligencia artificial avanzada, y tras la reciente actualización del bot ChatGPT a su cuarta versión, se ha visto en la necesidad de expresar su opinión.
“Hacemos un llamado a todos los laboratorios de IA para que pausen inmediatamente durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4”, sostiene en una carta firmada por Elon Musk, CEO de Tesla, SpaceX y Twitter; Steve Wozniak, cofundador de Apple, y otros 1277 expertos.
LEE TAMBIÉN: ¿Está tu trabajo en riesgo? Conoce las profesiones que serán reemplazadas por la Inteligencia Artificial
De la versión anterior a la actual de ChatGPT, la empresa OpenAi (desarrolladora) incrementó hasta en cinco veces la cantidad de parámetros que puede procesar y generar el bot asistencial. Para ser más precisos, puede evaluar 1,000,000,000,000 parámetros (1 billón en español).
¿Es la Inteligencia Artificial un peligro latente?
La organización postula que los sistemas de IA con inteligencia humana-competitiva pueden “plantear riesgos profundos para la sociedad y la humanidad”. Basa su opinión en una extensa investigación sobre la tecnología y reconocido por los principales laboratorios de IA en el mundo.
“Los sistemas de IA contemporáneos ahora se están volviendo competitivos para los humanos en tareas generales, y debemos preguntarnos: ¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los de cumplimiento? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? Tales decisiones no deben delegarse en líderes tecnológicos no elegidos”, cuestionan.
Resulta curioso saber que el propio magnate Elon Musk firmó esta petición, siendo él quien cofundó –irónicamente– OpenAi, por consiguiente, es autor indirecto de ChatGPT. Los cosignatarios incluyeron al CEO de Stability AI, Emad Mostaque, investigadores de DeepMind, propiedad de Alphabet, y los pesos pesados de AI Yoshua Bengio, a menudo denominado como uno de los “padrinos de AI”, y Stuart Russell, un pionero de la investigación en el campo.
Las preocupaciones surgen cuando ChatGPT atrae la atención de los legisladores estadounidenses con preguntas sobre su impacto en la seguridad nacional y la educación. La fuerza policial de la UE, Europol, advirtió el lunes sobre el posible uso indebido del sistema en intentos de phishing, desinformación y ciberdelincuencia.
LEE TAMBIÉN: ¿Adiós a Google? ChatGPT y Microsoft amenazan su reinado en el mercado de buscadores
“Los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que son rigurosamente auditados y supervisados por expertos externos independientes”, apunta la organización.