Meta toma medidas contra apps que generan desnudos falsos

Meta refuerza sus políticas para frenar el uso malicioso de aplicaciones que generan imágenes falsas de desnudos utilizando inteligencia artificial. Esta medida responde al creciente uso de herramientas conocidas como «nudify apps», que permiten crear contenido explícito no consensuado a partir de fotos cotidianas de personas, normalmente mujeres, sin su consentimiento.

La compañía ha eliminado más de 1.100 cuentas en Facebook e Instagram relacionadas con la creación y distribución de estos contenidos. Además, está colaborando activamente con agencias de seguridad y otras plataformas tecnológicas para rastrear y desactivar estas redes. Meta también ha actualizado sus políticas de moderación para clasificar este tipo de contenido como explotación sexual no consensuada, facilitando así su eliminación inmediata.

Estas apps utilizan modelos de inteligencia artificial generativa para alterar fotografías, mediante técnicas como el deepfake o la edición automatizada, lo cual representa una amenaza tanto para la privacidad como para la integridad de las personas afectadas.

Meta también ha lanzado un formulario específico en su Centro de Prevención de Explotación para ayudar a los usuarios a denunciar este tipo de contenido de manera más eficiente, además de expandir sus herramientas de detección proactiva que analizan imágenes sospechosas antes de que se difundan.

Esta información es útil para desarrolladores, profesionales de ciberseguridad, y usuarios en general que quieran entender cómo las grandes plataformas están combatiendo el mal uso de la IA generativa para proteger la privacidad digital.

Fuente: Meta

Meta toma medidas contra apps que generan desnudos falsos
Compartir Post:

Publicaciones relacionadas

Herramientas IA

Suscríbete a nuestro boletín