
l regulador ruso de las comunicaciones, Roskomnadzor, lanzó un llamado a las redes sociales para que asuman un papel más activo en el combate contra los contenidos ‘deepfake’, es decir, videos, imágenes o audios generados mediante inteligencia artificial que pueden simular personas y situaciones reales.
De acuerdo con el diario ruso Kommersant, la propuesta fue presentada durante un foro enfocado en el desarrollo de tecnologías de IA “confiables”, donde se planteó que las plataformas digitales deberían ser capaces de detectar y limitar la difusión de materiales sospechosos hasta comprobar si son auténticos.
La iniciativa surge en medio del creciente debate internacional sobre los riesgos de la inteligencia artificial generativa, especialmente por el uso de contenido manipulado para desinformación, fraudes o suplantación de identidad. Roskomnadzor considera que las redes sociales deben contar con mecanismos para detener la propagación de este tipo de publicaciones mientras se revisa su veracidad.
Entre las medidas planteadas por el organismo ruso se encuentra el etiquetado obligatorio de materiales creados con inteligencia artificial, así como la creación de una base de datos sobre amenazas tecnológicas relacionadas con los ‘deepfake’.
Sin embargo, especialistas citados por Kommersant advirtieron que actualmente las plataformas no cuentan con herramientas completamente fiables para identificar contenidos generados con IA sin cometer errores.
Los expertos señalaron que los modelos de inteligencia artificial avanzan rápidamente y podrían superar los sistemas automáticos de detección en poco tiempo. Además, alertaron que bloqueos incorrectos podrían derivar en conflictos con usuarios, creadores de contenido e incluso marcas comerciales.
Expertos ven difícil frenar los ‘deepfake’ solo con filtros automáticos
Ante estas limitaciones, analistas consideran que la opción más viable sería implementar un sistema mixto. Bajo este esquema, los filtros automatizados detectarían publicaciones sospechosas, pero la decisión final quedaría en manos de moderadores humanos encargados de verificar la autenticidad del contenido.
El debate sobre los ‘deepfake’ se ha intensificado en distintos países debido al aumento de videos falsos relacionados con figuras públicas, campañas políticas y celebridades, mientras gobiernos y empresas tecnológicas buscan nuevas regulaciones para enfrentar el problema.
Fuente: milenio.com
















































