En la Cumbre de Seguridad de la IA en Seúl que terminó el 22 de mayo, importantes compañías tecnológicas como Microsoft, Amazon y OpenAI alcanzaron un acuerdo internacional histórico sobre la seguridad de la inteligencia artificial. Este pacto permitirá a empresas de Estados Unidos, China, Canadá, Reino Unido, Francia, Corea del Sur y los Emiratos Árabes Unidos comprometerse voluntariamente a asegurar el desarrollo seguro de sus modelos de IA más avanzados.
Para responder a circunstancias extremas dentro del funcionamiento de la inteligencia artificial, las empresas dijeron que planean implementar un “interruptor de apagado” que detendría el desarrollo de sus modelos en caso que no pueden garantizar la mitigación de estos riesgos.
Este acuerdo es una extensión de compromisos previos asumidos en la Cumbre de Seguridad de IA en Bletchley Park, Inglaterra. Además, las empresas recibirán información de “actores confiables”, incluidos sus gobiernos, antes de la próxima Cumbre de Acción de IA en Francia programada para 2025.
El acuerdo se centra en los llamados modelos “de frontera”, como la familia GPT de OpenAI, detrás del chatbot. Desde el lanzamiento de ChatGPT en noviembre de 2022, las preocupaciones sobre los riesgos de la IA avanzada han aumentado. La Unión Europea ha abordado estos riesgos con la Ley de IA, mientras que el Reino Unido ha adoptado un enfoque más ligero, aplicando leyes existentes sin proponer nuevas regulaciones específicas para la IA. No obstante, el gobierno británico considera legislar en el futuro.
Este acuerdo representa un paso significativo hacia la cooperación internacional en la gestión segura de la inteligencia artificial, uniendo a empresas y gobiernos de diversas partes del mundo en la búsqueda de normas comunes para enfrentar los desafíos y riesgos asociados con la IA avanzada. Con el establecimiento de estos marcos de seguridad, se espera que el desarrollo de la inteligencia artificial avance de manera más controlada y responsable, promoviendo tanto la innovación como la seguridad.








