La inteligencia artificial podría conducir a la extinción humana y por ello es necesario convertir en una prioridad global la reducción de los riesgos asociados con esta tecnología, manifestaron expertos de la industria y líderes del sector a través de una carta abierta.
“Mitigar el riesgo de extinción por cuenta de la IA, debería ser una prioridad global junto con otros riesgos a escala social como las pandemias y las guerras nucleares”, se leía en el comunicado de este martes.
Sam Altman, CEO de OpenAI, fabricante de ChatGPT, así como ejecutivos de Google, DeepMind y Microsoft, estuvieron entre los que apoyaron y firmaron la breve declaración del Centro para la Seguridad de la inteligencia artificial
La tecnología IA se ha acelerado luego del lanzamiento de ChatGPT en noviembre pasado. A solo dos meses de su estreno, este chatbot alcanzó los 100 millones de usuarios.
ChatGPT ha asombrado a los investigadores y al público en general por su capacidad para generar respuestas similares a las humanas, lo que sugiere que la IA podría reemplazar los trabajos desarrollados hasta ahora exclusivamente por personas.
La declaración del martes muestra que ha habido una discusión cada vez mayor sobre un “amplio espectro de riesgos importantes y urgentes de la IA”.
La inteligencia artificial no nació con chatGPT, sin embargo este aplicativo popularizó este tipo de tecnología y la puso al alcance de las personas. Podría decirse que ha generado mucha más conciencia sobre sus implicaciones.
Altman admitió en marzo que está “un poco asustado” de que la IA caiga en manos de gobiernos autoritarios que logren manipular esta tecnología a su conveniencia. Otros líderes tecnológicos, como Elon Musk de Tesla y el ex director ejecutivo de Google, Eric Schmidt, han advertido sobre los riesgos que representa para la sociedad.
En una carta abierta en marzo, Musk, el cofundador de Apple, Steve Wozniak, y varios líderes tecnológicos instaron a los laboratorios de inteligencia artificial a detener los sistemas de capacitación a IA. También pidieron una pausa de seis meses en el desarrollo tan avanzado.
“Los sistemas de inteligencia artificial contemporáneos, ahora se están volviendo competitivos para los humanos en tareas generales”, decía la carta.
“¿Deberíamos automatizar todos los trabajos, incluidos los de cumplimiento? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? preguntó la carta.
La semana pasada, Schmidt también advirtió por separado sobre los “riesgos existenciales” asociados con la IA a medida que avanza la tecnología.