Meta, la empresa matriz de Facebook, se encuentra bajo una rigurosa investigación de la Unión Europea (UE) debido a presuntas violaciones de las estrictas leyes de contenido en línea, particularmente en relación con la seguridad infantil.
La Comisión Europea, el órgano ejecutivo de la UE, ha expresado su preocupación por el potencial de las plataformas Facebook e Instagram para fomentar adicciones conductuales en los niños y crear efectos perjudiciales.
La Comisión también ha señalado inquietudes sobre los métodos de verificación de edad en las plataformas de Meta y los riesgos de privacidad asociados con los algoritmos de recomendación de la empresa. En respuesta, un portavoz de Meta destacó que la compañía ha invertido una década en desarrollar más de 50 herramientas y políticas diseñadas para proteger a los jóvenes y garantizar su seguridad en línea.
La decisión de la Comisión Europea de iniciar esta investigación se basa en un análisis preliminar de un informe de evaluación de riesgos presentado por la compañía en septiembre de 2023. Thierry Breton, comisario de Mercado Interior de la UE, manifestó que el regulador no está convencido de que Meta haya cumplido adecuadamente con las obligaciones de la Ley de Servicios Digitales (DSA) para mitigar los riesgos para la salud física y mental de los jóvenes en sus plataformas.
La UE ha declarado que llevará a cabo una investigación exhaustiva sobre las medidas de protección infantil de Meta como una prioridad. Este proceso puede incluir la recopilación de pruebas adicionales a través de solicitudes de información, entrevistas o inspecciones. La investigación DSA permite a la UE tomar medidas de cumplimiento, como imponer medidas provisionales o declarar incumplimientos, y considerar los compromisos que Meta pueda asumir para abordar sus preocupaciones.
Meta y otras grandes empresas tecnológicas estadounidenses han sido objeto de un escrutinio creciente por parte de la UE desde la implementación de la histórica Ley de Servicios Digitales del bloque. Esta legislación busca abordar el contenido dañino en línea y establece que las empresas pueden recibir multas de hasta el 6% de sus ingresos anuales globales por infracciones. Hasta la fecha, la Unión Europea no ha impuesto multas a las grandes tecnológicas bajo esta nueva ley.
Además de la investigación actual, la UE también ha abierto procedimientos contra otras empresas tecnológicas. En diciembre de 2023, inició un procedimiento contra X, anteriormente conocida como Twitter, por no combatir la desinformación y la manipulación de contenidos. La Comisión Europea también está investigando a Meta por su manejo de la desinformación electoral, especialmente en relación con las próximas elecciones al Parlamento Europeo.
Las preocupaciones sobre la seguridad infantil no son exclusivas de la UE. En Estados Unidos, el fiscal general de Nuevo México ha demandado a Meta por permitir presuntamente el abuso, la solicitación y la trata de niños a través de Facebook e Instagram. En respuesta, un portavoz de Meta afirmó que la empresa utiliza tecnología avanzada y otras medidas preventivas para proteger a los menores de los depredadores en línea.