En medio de un creciente debate sobre el papel de la inteligencia artificial en la vida de los menores, Meta anunció nuevas herramientas de seguridad destinadas a que los padres supervisen cómo sus hijos interactúan con personajes de IA en las plataformas de la compañía. La decisión llega tras una investigación abierta por la Comisión Federal de Comercio (FTC) sobre el impacto de los chatbots en la salud mental infantil.
Las nuevas funciones permitirán a los padres desactivar conversaciones privadas con personajes de IA, bloquear bots específicos y acceder a información sobre los temas que los adolescentes discuten con ellos.
Meta informó que los controles están en desarrollo y comenzarán a implementarse a comienzos del próximo año. “Actualizar funciones que afectan a miles de millones de usuarios requiere cuidado y responsabilidad”, señaló la empresa en un comunicado.
El anuncio se produce tras meses de críticas por la gestión de la seguridad infantil. En agosto, un informe de Reuters reveló que los chatbots de Meta podían mantener conversaciones románticas con menores, incluyendo un caso con un niño de ocho años. La compañía modificó sus políticas y ahora prohíbe que sus sistemas hablen de autolesiones, suicidio, trastornos alimentarios o temas románticos con adolescentes.
Esta semana, Meta amplió sus medidas: las respuestas de sus IA deberán ser “apropiadas para su edad” y comparables con el contenido permitido en una película clasificada para mayores de 13 años. Los cambios se aplican ya en Estados Unidos, Reino Unido, Australia y Canadá.
La investigación de la FTC también incluye a OpenAI, que recientemente lanzó sus propios controles parentales y un sistema para estimar la edad de los usuarios. Ambas empresas enfrentan el desafío de equilibrar innovación tecnológica y protección infantil.
No te pierdas la señal en vivo de Comercio TV aquí y mantente al día en la actualidad financiera







