YouTube, el auge del “AI slop” y por qué España aparece entre los más afectados
Qué ha encontrado el estudio y por qué importa
Un análisis divulgado por Kapwing y recogido por medios como The Guardian detecta una presencia creciente de vídeos generados automáticamente —etiquetados como “AI slop”— dentro del feed de YouTube, especialmente en formatos cortos. El estudio revisó los 100 canales “tendencia” en cada país según Playboard, identificó aquellos que encajaban con la categoría y compiló métricas públicas (visualizaciones, suscriptores, ingresos estimados) a través de Social Blade. Además, creó una cuenta nueva y analizó los primeros 500 Shorts que el feed ofrecía a un usuario sin historial: 104 de esos Shorts fueron clasificados como AI slop (21%) y 165 encajaron en la categoría más amplia de “brainrot” (33%).
En el caso de España el hallazgo relevante es que los canales de AI slop que aparecen en tendencia acumulan más de 20 millones de suscriptores, pese a que el número de canales implicados es reducido. Esa concentración explica por qué España figura en una posición inesperada dentro del ranking.
Definiciones y patrones de contenido
“AI slop” se utiliza para describir vídeos generados de forma automática, con estándares muy bajos y pensados para producirse en masa, priorizando cantidad sobre contenido.
“Brainrot” engloba piezas que, con o sin inteligencia artificial, buscan retener al espectador mediante estímulos repetitivos y sin narrativa clara.
Los materiales catalogados suelen compartir fórmulas visuales y narrativas: animales antropomórficos con estética hiperrealista o de dibujo animado, secuencias de impacto inmediato pensadas para entenderse en segundos, y repeticiones que explotan la familiaridad. La lógica del feed —optimizada para maximizar atención y tiempo de visualización— favorece este tipo de piezas por su capacidad de generar clics y retener usuarios breves tiempos, especialmente en los Shorts.
Contexto y antecedentes
La aparición masiva de contenidos sintéticos conecta con tendencias más amplias en plataformas: la popularización de formatos cortos (TikTok, Instagram Reels, YouTube Shorts) reconfiguró la economía de la atención, priorizando micro-impulsos y recurrencia. A la vez, la democratización de herramientas de generación automática de audio, imagen y vídeo ha reducido costes de producción, permitiendo la escalada de experimentos que replican fórmulas rentables.
Históricamente, plataformas con sistemas de recomendación han visto proliferar “content mills” o redes de producción de bajo coste que buscan explotar incentivos de monetización y algoritmos. El fenómeno actual es una versión potenciada por modelos generativos: mayor automatización, menor intervención humana por pieza y, en algunos casos, dificultades añadidas para detectar origen sintético o infracciones (derechos de autor, contenidos sensibles, deepfakes).
Análisis experto y hallazgos prácticos
Para profesionales y responsables de producto, varias conclusiones prácticas emergen del estudio y de la observación del fenómeno:
- Incentivos económicos y escala. Las herramientas automáticas reducen costes marginales y permiten producir volúmenes que, si alcanzan tracción, concentran audiencias —como se observa en España— en pocos canales que escalan rápidamente.
- Opacidad algorítmica. YouTube afirma que las mismas políticas aplican a contenido generado por IA, pero no publica métricas que permitan verificar la escala real del fenómeno o cómo afectan esos vídeos a las recomendaciones. Esa falta de datos complica la auditoría externa y el diseño de contramedidas informadas.
- Detección técnica y límites actuales. Identificar contenido sintetizado a gran escala es técnicamente complejo: los modelos pueden evitar huellas sencillas, y el etiquetado voluntario por parte del creador es irregular. Para moderadores y sistemas automáticos se trata de un reto creciente.
- Calidad versus engagement. Lo que monetiza hoy no es necesariamente calidad narrativa o periodística, sino fórmulas repetibles que maximizan interacciones. Para creadores tradicionales esto supone una presión competitiva y un dilema ético sobre escalabilidad y prácticas.
Riesgos, implicaciones y comparables
El crecimiento del AI slop conlleva varios riesgos prácticos y sociales:
- Desinformación y confianza. Aunque muchos vídeos estudiados son inofensivos por forma, la misma infraestructura puede usarse para amplificar información errónea o manipulaciones audiovisuales.
- Daño a la economía creativa. La saturación de contenidos de bajo coste puede degradar los ingresos para creadores que invierten en guion, producción y ética editorial.
- Protección de menores y seguridad. Contenidos diseñados para “brainrot” pueden dirigirse a públicos vulnerables; además, la generación automática dificulta rastrear responsables en casos de abuso o explotación.
- Propiedad intelectual. Las piezas generadas a partir de modelos que han sido entrenados con material protegido plantean incertidumbres legales y litigios potenciales.
Comparables conocidos y no controvertidos: la llegada de TikTok y la expansión de Shorts ya demostraron cómo los feeds cortos pueden acelerar la viralidad de contenidos de baja producción, y cómo algoritmos basados en engagement tienden a optimizar por retención más que por calidad informativa. El fenómeno de “content mills” en motores de búsqueda y redes sociales en años anteriores ofrece un paralelo operativo: incentivos monetarios + facilidad técnica = proliferación de volumen y baja calidad.
Recomendaciones accionables
Para mitigar riesgos y ayudar a distintos actores a adaptarse, propongo medidas concretas:
- Para plataformas (YouTube y similares):
- Transparencia: publicar métricas agregadas sobre prevalencia de contenido sintético y su impacto en recomendaciones.
- Etiquetado obligatorio: exigir a creadores identificar contenido generado por IA (provenance metadata) y apoyar estándares interoperables.
- Auditorías independientes periódicas del algoritmo y de las políticas de monetización.
- Para creadores responsables:
- Diversificar formatos y enfocarse en valor diferencial (reportaje, análisis, guion) para evitar competir solo en escala de producción.
- Declarar el uso de herramientas generativas y mantener trazabilidad de activos (fuentes, licencias).
- Para reguladores y formuladores de política:
- Considerar requisitos de trazabilidad y etiquetado para contenidos sintéticos, y establecer normas claras de responsabilidad respecto a infracciones y daños.
- Promover auditorías de plataformas sobre impactos en competencia y mercado de trabajo creativo.
- Para usuarios:
- Ser críticos con contenidos de formato corto y revisar fuentes antes de compartir.
- Utilizar funciones de reporte y curación del propio feed (bloquear, no interesar) para reducir exposición a material repetitivo o sospechoso.
Conclusión
El informe de Kapwing y la cobertura de The Guardian ponen de manifiesto una tendencia clara: los contenidos generados por IA y los formatos diseñados para “brainrot” ya son una parte significativa del menú inicial que reciben usuarios nuevos en YouTube. En España la singular concentración de audiencias en pocos canales explicita cómo las dinámicas algorítmicas y de monetización pueden amplificar rápidamente determinados productores. La respuesta efectiva exige más transparencia de las plataformas, estándares de etiquetado y una adaptación de creadores, reguladores y usuarios para preservar calidad informativa, proteger derechos y mitigar daños sociales derivados de la escala automatizada.
Source: www.xataka.com



