Explico cómo converti una publicación sobre Bitcoin en una operación editorial fuertemente automatizada con modelos de IA, flujos agenticos y herramientas desarrolladas en Rust. Su relato no solo describe un salto de 20 a 80 artículos diarios, sino que también plantea una idea más ambiciosa: usar blockchain como memoria persistente para agentes de inteligencia artificial.
***
- Angel Leon afirmó que su operación editorial pasó de producir unas 20 notas diarias a cerca de 80 gracias a la automatización con IA.
- El sistema integra scraping, redacción, generación de imágenes, SEO, categorización y carga automática de borradores en WordPress.
- Como siguiente paso, propuso una “Thought Chain”, una cadena de bloques para almacenar recuerdos, lecciones y decisiones de agentes de IA.
La convergencia entre inteligencia artificial, automatización editorial y blockchain ya no se limita a experimentos de laboratorio. En el sector de medios especializados, estas tecnologías comienzan a combinarse en sistemas capaces de traducir, redactar, clasificar, ilustrar y publicar contenido con una intervención humana cada vez menor.
Ese fue el eje de la exposición Building an AI Newsroom: Agents, Automation, and the Future of Media, Allí relaté cómo evolucionó la operación de DiarioBitcoin desde una pequeña publicación enfocada en lectores hispanohablantes hasta una estructura con flujos casi completamente automatizados.
Lejos de presentar un marco teórico cerrado, Leon describió una secuencia de pruebas, ajustes y herramientas construidas sobre la marcha. Según explicó, el objetivo no era diseñar un sistema perfecto desde el inicio, sino resolver problemas concretos de producción y escalar gradualmente una sala de redacción especializada en noticias sobre Bitcoin y el ecosistema cripto.
El trasfondo de esa historia tiene peso dentro del sector. Los medios cripto suelen operar en un entorno de alta velocidad, con abundancia de fuentes en inglés, movimientos de mercado constantes y una audiencia que exige cobertura continua. En ese contexto, reducir tiempos de procesamiento sin perder consistencia editorial puede convertirse en una ventaja competitiva clave.
De un equipo humano de traducción a una operación asistida por modelos
Leon recordó que el proyecto comenzó en 2014 como una iniciativa personal, nacida de su interés por compartir en español información sobre Bitcoin que originalmente encontraba en inglés. Con el tiempo, esa actividad dejó de ser un blog personal y se convirtió en una publicación con anunciantes y un equipo de trabajo más formal.
Según su relato, la estructura llegó a incluir cinco personas de base: él mismo, una persona de ventas, una editora premiada exiliada de Venezuela y dos redactoras jóvenes, una formada en psicología que derivó al blogging y otra egresada de literatura que había sido alumna de la editora. Además, existía una red de colaboradores externos pagados por pieza, con montos de entre USD $2 y USD $4 por publicación.
En esa etapa, gran parte del trabajo consistía en traducir contenido, aunque más tarde también se incorporaron notas originales. Sin embargo, la demanda informativa era tan alta que la publicación dependía de tareas repetitivas y mano de obra adicional para sostener el ritmo de cobertura.
La llegada de GPT-3.5 abrió una primera etapa de experimentación. Leon dijo que comenzó copiando y pegando textos para probar las capacidades de traducción y para intentar trasladar al modelo el estilo editorial aprendido con su editora. Los resultados mostraban potencial, pero seguían siendo inconsistentes y no lograban convencer al equipo responsable de la edición.
El panorama cambió con las primeras versiones de GPT-4. A partir de allí, explicó, la calidad mejoró lo suficiente como para pasar del uso manual al consumo vía API. Ese salto permitió integrar el modelo a herramientas propias y convertir tareas editoriales repetitivas en procesos automatizados con intervención programática.
Rust, bots y comandos: la arquitectura de una redacción automatizada
Leon indicó que su entorno de desarrollo está basado principalmente en Rust, mientras que PHP solo se utiliza cuando es indispensable interactuar con WordPress. Sobre esa base construyó un wrapper ligero para conectarse a distintos modelos de lenguaje desde una única capa, sin depender de un solo proveedor.
Esa abstracción le permitió alternar entre GPT, Claude, Grok y otras opciones según el tipo de tarea. En su explicación, Grok era especialmente útil para consultas sobre noticias en tiempo real y movimientos de precios, mientras que GPT seguía destacando en la redacción de artículos.
Encima de esa infraestructura, desarrolló un bot capaz de recibir órdenes tanto en Slack como en Telegram, convirtiendo esos canales en una suerte de línea de comandos para la redacción. Algunas instrucciones ejecutan tareas determinísticas, mientras que otras invocan modelos de IA cuando se necesita razonamiento o generación de texto.
El comando central del sistema es draft. Su función es tomar una o varias URL, archivos PDF o incluso videos, extraer la información relevante y producir un borrador listo para publicarse en el sitio. Para alimentar ese flujo, Leon construyó otra herramienta llamada Uni News, descrita como un scraper de artículos impulsado por IA.
Uni News, según detalló, puede recuperar título, autor, fecha de publicación y contenido principal en un formato normalizado, ya sea Markdown o JSON. Si el recurso es accesible y no está protegido por bloqueos severos, el sistema procesa HTML, texto u otros formatos y los prepara para que el backend en Rust genere la nota.
Una vez obtenida la información, el modelo redacta el artículo siguiendo pautas editoriales. Leon afirmó que las versiones más recientes ya obedecen con precisión ese conjunto de instrucciones, un punto que había sido problemático en las primeras etapas, cuando las respuestas omitían enlaces, categorías o detalles de formato.
Imágenes, SEO y WordPress: el flujo completo de publicación
La automatización no se detiene en la redacción. De acuerdo con Leon, el mismo flujo genera también un prompt para crear una imagen original relacionada con la nota. Esa instrucción se envía luego a un modelo de imágenes, con Grok Imagine como una de las herramientas usadas con mayor frecuencia.
Este cambio eliminó otro dolor operativo frecuente en los medios digitales: la búsqueda de imágenes libres de derechos. Leon sostuvo que la generación propia redujo el riesgo de disputas por propiedad intelectual, una preocupación recurrente para publicaciones que deben ilustrar muchas notas cada día.
En paralelo, el backend se comunica con WordPress vía REST para crear un borrador, asignarle categorías y completar campos de SEO. El sistema, dijo, identifica automáticamente en qué secciones encaja la nota, algo que antes dependía del criterio del editor y a veces se ejecutaba de forma inconsistente.
Después, una herramienta adicional redimensiona y comprime la imagen para asegurar cargas rápidas. El archivo se sube al gestor de contenidos y queda asociado al borrador. En la práctica, el proceso deja un artículo casi terminado, de modo que la tarea humana se limita a abrirlo y pulsar publicar.
Leon añadió que recientemente incorporó una función para revisar las 25 publicaciones anteriores y detectar si la nueva pieza repite un tema ya cubierto. Ese filtro ayuda a evitar duplicaciones cuando la producción crece y varios procesos o personas trabajan en paralelo sobre noticias similares.
De 20 a 80 artículos diarios y el objetivo de operar 24/7
Las cifras ofrecidas por Leon muestran el alcance del cambio. Antes de la automatización, la publicación generaba cerca de 20 artículos diarios en una jornada buena. Con la nueva estructura, dijo, el ritmo subió con facilidad a 80 notas al día, con un potencial superior a 96.
Ese aumento no proviene solamente de ahorrar costos laborales. En su visión, la ventaja central es convertir una publicación relativamente pequeña en una operación mucho más amplia, capaz de cubrir más podcasts, más documentos y más eventos del ecosistema en lapsos muy cortos.
La automatización también se extiende a la distribución. Leon señaló que ya dispone de bots que colocan en cola las publicaciones para compartirlas en redes sociales a intervalos regulares, incluso cada 15 minutos, lo que permite sostener una rotación continua durante las 24 horas del día.
En el frente del desarrollo, comentó que primero usó GitHub Copilot como si fuese un empleado remoto al que podía asignarle tickets. Más tarde migró con mayor intensidad a Claude desde la línea de comandos. Afirmó que ese enfoque terminó reduciendo la necesidad de abrir un entorno integrado de desarrollo para muchas tareas.
También mencionó la dimensión económica de trabajar con APIs. Para la mayoría de los casos usa modelos más baratos, pero cuando un problema técnico resulta especialmente difícil, recomendó escalar a modelos más potentes. En su experiencia, el mayor costo puntual sigue siendo inferior al de perder días enteros intentando resolver un obstáculo manualmente.
Agentes, memoria y una posible cadena de bloques para pensamientos
Más allá del caso editorial, Leon planteó que todos estos comandos pueden convertirse en herramientas reutilizables dentro de arquitecturas de agentes. En su definición, un agente es una sesión de modelo de lenguaje con acceso a herramientas, aunque matizó que el verdadero reto está en gestionar contexto, memoria y costos de tokens.
Contó que ha experimentado con distintas formas de orquestación, desde bucles iterativos hasta equipos de agentes organizados bajo jerarquías diversas. Incluso mencionó pruebas para crear juegos como Breakout y Tetris mediante estos sistemas, como una demostración de que los agentes pueden abordar problemas complejos de forma relativamente autónoma.
El siguiente paso para su medio, aseguró, es automatizar el scouting de noticias. Hoy todavía hay intervención humana para decidir qué historias merecen un borrador. La idea futura es que un agente monitoree fuentes, evalúe relevancia y determine qué debe publicarse.
En ese punto introdujo una reflexión más ambiciosa sobre la memoria de los agentes. A su juicio, uno de los límites actuales está en el colapso del contexto cuando las sesiones se alargan. Aunque existen archivos de memoria y técnicas de reflexión sobre errores, considera que esos mecanismos siguen siendo frágiles y parcialmente perdidos durante la compresión del contexto.
Su propuesta es una “Thought Chain”, una estructura tipo blockchain en la que los agentes registren pensamientos, aprendizajes o lecciones en bloques encadenados mediante hashes. Leon sugirió que esos bloques podrían estar firmados por una autoridad central para evitar alteraciones y que cada agente, o incluso una organización completa de agentes, mantenga su propia cadena privada de memoria.
Según explicó, eso permitiría reconstruir sesiones, transferir aprendizajes entre modelos y preservar decisiones importantes a largo plazo. En un escenario más amplio, esa memoria compartida podría servir para que distintos agentes aprendan de aciertos y errores ajenos, e incluso dar pie a organizaciones autónomas de IA con continuidad histórica verificable.
La idea sigue en fase conceptual, pero conecta dos debates muy activos en la industria. Por un lado, la necesidad de memoria persistente y trazable para agentes de IA. Por otro, el posible papel de blockchain como capa de integridad, historial y coordinación entre sistemas autónomos. Si ambos frentes convergen, los medios podrían ser solo una de las primeras industrias en probarlo.