Desde 2022, los detectores de inteligencia artificial han empezado a proliferar. Aunque la tecnología existía antes, el uso masivo de textos generados por IA se disparó a finales de 2023, sobre todo en entornos educativos y profesionales.
Basta probar cualquier texto: incluso un artículo escrito antes de que existiera la IA será marcado como “generado por inteligencia artificial”. Los detectores no buscan autoría real. Analizan patrones estadísticos de estilo, longitud de frases o combinaciones de palabras. Cualquier desviación del promedio puede disparar la alarma.
El resultado es un ciclo perfecto:
El estudiante o profesional introduce su texto en el detector.
Recibe un aviso de “alto riesgo de IA”.
Paga por un servicio que lo “humaniza” y lo hace pasar como humano.
El miedo se convierte en negocio. Da igual que el texto sea humano, antiguo o perfectamente revisado: los falsos positivos son constantes.
El uso correcto de la IA sería como una herramienta: un dictáfono, una máquina de escribir o un Word moderno. El usuario aporta ideas, dicta, corrige y adapta; la IA solo ayuda a transcribir o estructurar. Pero la realidad es otra: estudiantes, profesionales y creadores de contenido la usan para que haga todo el trabajo. Basta con lanzar un prompt como:
“Hazme un trabajo de 10 folios sobre La Celestina para cuarto de la ESO, a doble espacio, bien estructurado y con citas literarias”.
y ¡pum!—la IA genera un texto largo que muchos ni siquiera leen. No aportan ideas propias, no revisan ni adaptan lo que reciben. Esa dependencia pasiva, sumada a la vaguería, es la verdadera raíz del miedo, y alimenta el negocio de los detectores que lucran con la ansiedad de los usuarios.
Incluso los textos que han pasado por procesos de “humanización” siguen apareciendo como generados por IA. No se trata solo de un falso positivo estadístico: los patrones están diseñados para que los textos den positivo con facilidad, garantizando que los usuarios paguen por “humanizarlos”. Esto ocurre también en sectores como publicidad, redes sociales, sistemas de recomendación y plataformas de juegos, que incluyen videojuegos y juegos online, donde los algoritmos se ajustan para maximizar interacción o ingresos.
Para demostrar la fragilidad del sistema, cualquier estudiante podría hacer una prueba sencilla: tomar un texto completamente original, creado por ellos mismos sin ayuda de IA, y pasarlo por el detector. Luego, aplicando cualquier proceso de “humanización” que se venda —cambiar palabras, sinónimos, reestructurar frases— volver a pasar el texto por el detector. Si después de todos estos cambios el sistema sigue marcándolo como “IA”, queda claro que no se trata de una herramienta de verificación, sino de un negocio basado en el miedo y los falsos positivos. Esta prueba simple sería suficiente para desenmascarar la industria.
Y si la idea parece absurda, todavía hay más: imaginemos dar la vuelta a la tortilla. ¿Por qué no un detector que identifique si los profesores han corregido usando IA, permitiendo abrir revisiones de exámenes y reclamaciones? Sería el reverso del negocio, aplicando la misma lógica que hoy se usa para lucrarse del miedo estudiantil.
Si esta tendencia continúa, dentro de una o dos décadas podríamos enfrentarnos a generaciones poco preparadas, con un déficit intelectual y cultural significativo. La dependencia de la IA para generar contenidos puede llevar a que los conocimientos no se asimilen, la creatividad se atrofie y, en el extremo, habilidades básicas como la motricidad fina o la escritura manual se pierdan casi por completo. La industria del miedo y la comodidad digital están moldeando no solo cómo trabajamos hoy, sino cómo pensaremos mañana.
Nota: algunos de los detectores más usados en España son DetectordeIA.ai, Smodin Detector de IA, Isgen.ai, Copyleaks AI Detector y X Detector.