AI Writing está aquí, pero ¿los editores deberían aceptarlo o evitarlo?
Gracias a algoritmos como GPT3, las computadoras ahora pueden generar texto que los lectores tienen problemas para distinguir de la copia escrita por humanos. Esto no es nuevo. Incluso instituciones de gran prestigio, como la bbc han estado usando sistemas de aprendizaje automático para producir contenido desde al menos 2019. Sin embargo, lo que ha cambiado es lo barato y fácil que se ha vuelto para los editores de cualquier tamaño usar sistemas como este.
En 2020, OpenAI lanzó GPT3 como una API pública para que cualquiera pueda registrarse y usar (con algunas restricciones). GPT3 es el último de una línea de algoritmos de generación de texto que pueden producir texto legible por humanos basado en lo que ha enseñado mediante la lectura de 45 TB de contenido de Wikipedia, libros y la web en general.
Este enorme rastreo de datos permite que OpenAI produzca texto al predecir qué texto es probable que siga en una secuencia. Esto le da una flexibilidad increíble para producir contenido de casi cualquier tipo y estilo con una entrada mínima.
El lanzamiento de la API de OpenAI ha sido la chispa para que aparezca toda una industria de herramientas de escritura de IA. Algunos de estos mejoran el modelo base de OpenAI entrenándolo con datos adicionales, mientras que otros simplemente proporcionan un front-end fácil de usar. Todos apuntan a poner la generación de contenido en manos de una audiencia más amplia.
Producir contenido escrito nunca ha sido tan fácil
Con estas herramientas, es un juego de niños producir artículos completos en menos de un minuto con solo unos pocos clics. Con solo unos minutos de capacitación, alguien podría literalmente producir cientos de artículos originales en un día y unas pocas líneas de código pueden convertir eso en miles. Como era de esperar, muchas personas están haciendo precisamente eso, viendo a la IA como el último atajo que se puede explotar para obtener dinero fácil.
Los riesgos del contenido de IA
El resultado que producen estos sistemas es sin duda impresionante, pero está lejos de ser perfecto. El rastreo de datos que sustenta el sistema tiene ahora más de dos años. Pídele a OpenAI que hable sobre la pandemia, la guerra en Ucrania o incluso quién es el actual presidente de los Estados Unidos, y las lagunas se muestran.
El sistema también es propenso a otros errores. No siempre entiende la diferencia entre realidad y ficción para uno. Las cotizaciones se pueden crear y atribuir a personas que no existen, porque ese es el bloque de texto que el sistema predice que seguirá. Sin una supervisión cuidadosa, GPT3 a menudo también puede divagar, moviéndose de un tema a otro sin apegarse a una narrativa. En resumen, es fácil usar IA para producir contenido legible, pero es mucho más difícil hacer que produzca buen contenido.
¿Qué piensa Google al respecto?
Google ha dicho que ve el contenido generado por IA de la misma manera que otros tipos de automatización de contenido. El defensor de búsqueda de Google, John Mueller, ha recordado repetidamente a los propietarios de sitios web que las Directrices para webmasters de Google son bastante claras sobre el tema del contenido generado automáticamente, y que ven sistemas como GPT3/OpenAI de manera similar a otras técnicas utilizadas para generar contenido para manipular clasificaciones.
De hecho, las pautas para webmasters mencionaron específicamente las cadenas de Markov como algo contra lo que Google puede tomar medidas y las cadenas de Markov son los componentes básicos de la salida GPT3/OpenAI.
¿Se acabó el juego para la escritura de IA entonces?
Con las preocupaciones sobre la calidad y el riesgo de acción de Google, ¿ya se acabó el juego para el texto AI? No creo que ese sea el caso. Estos modelos aún están en pañales y están mejorando rápidamente. Muchos de los problemas que vemos con GPT3 se olvidarán rápidamente una vez que se lancen nuevos modelos. El propio modelo de lenguaje LaMDA de Google incluso logró engañar a uno de los propios ingenieros de la empresa en pensar que se había vuelto sensible. Si la escritura se vuelve indistinguible de la escritura humana, si a Google le gusta o no podría convertirse en un punto discutible.
Lo que es más importante que cómo se produjo el contenido es la calidad del resultado. A pesar de las limitaciones de los sistemas actuales, hoy en día es perfectamente posible producir resultados de buena calidad con ellos.
Si le preocupa la calidad del contenido, entonces la generación actual de escritores de IA se utiliza mejor como asistente en lugar de para la producción de contenido completamente automatizada. No es probable que convertirlos en «totalmente automático» y producir un flujo interminable de contenido resulte en una producción sostenible y de calidad. Sin embargo, usar las herramientas para expandir las ideas de un escritor, concebir temas, mejorar la escritura y, en general, acelerar el proceso de producción de contenido puede funcionar bien. El uso de sistemas de inteligencia artificial para aliviar la carga de los escritores de contenido y ayudarlos a trabajar de manera más eficiente permite escalar el contenido sin sacrificar la calidad.
¿Hacia dónde se dirige todo esto?
La IA no solo se utiliza para producir contenido de texto. Hoy en día, los sistemas de generación de contenido de IA producen imágenes, videos, música e incluso código. Esto corre el riesgo de una explosión de contenido barato que agrega poco valor a la web. Si se produce esa explosión, se puede esperar que tanto Google como los anunciantes respondan.
Detectar contenido de IA ya es difícil y solo se volverá más difícil a medida que mejoren los sistemas. Por lo tanto, parece probable que cualquier respuesta se centre más en la calidad del contenido que en si se originó en humanos o no. Si ese es el caso, aquellos que se niegan a permitir que la calidad del contenido se deslice en nombre del costo o el volumen pueden hacerlo bien.