El procesamiento de lenguaje natural (PLN) permite una mejor comprensión de los términos y conceptos utilizados en los informes y textos relacionados con la sostenibilidad. Mediante la tokenización, un proceso en el cual las palabras y frases se descomponen para facilitar su análisis, se puede obtener un conjunto de palabras similares a términos clave, como "sostenibilidad". Un ejemplo de ello es la palabra "sostenibilidad" misma, que genera en un análisis de PLN un conjunto de términos como: "ambiental", "biodiversidad", "energías renovables", "biomasa", "ecológico", entre otros. Estos términos nos proporcionan una visión más clara de cómo los diferentes aspectos de la sostenibilidad, como el medio ambiente y la conservación, se interrelacionan en los discursos actuales.
Realizar un análisis similar con el Informe de los Objetivos de Desarrollo Sostenible de 2018 revela un conjunto de términos parecidos, aunque con matices diferentes. En lugar de palabras como "cogeneración" o "ecología", se encuentran términos más vinculados con la innovación, la agricultura o el regadío, reflejando un cambio de enfoque hacia la tecnología y la optimización de recursos en el contexto de la sostenibilidad. Este fenómeno subraya cómo los informes y documentos relacionados con el desarrollo sostenible no son estáticos, sino que evolucionan con el tiempo, ajustándose a nuevas prioridades y tendencias en la sociedad.
En el procesamiento de texto a través de PLN, una de las técnicas más interesantes es la aritmética vectorial. Mediante esta técnica, es posible realizar sumas y restas de vectores asociados a palabras, con resultados que en muchos casos parecen intuitivos. Por ejemplo, al sumar los vectores de las palabras "vivible" y "planeta", el resultado da lugar a términos como "sostenibilidad", "biodiversidad" o "ecológico", lo que refuerza la idea de que el concepto de sostenibilidad está profundamente vinculado con el bienestar del planeta. En cambio, al restar el vector de "sostenible" del de "economía", se obtienen resultados como "inflación", "recesión" o "desempleo", mostrando que los términos relacionados con la economía tienen implicaciones directas en las cuestiones medioambientales.
Otro aspecto fascinante es cómo las sentencias completas pueden ser analizadas utilizando PLN. Al generar vectores para oraciones completas y luego compararlos, podemos identificar la similitud entre distintas afirmaciones o argumentos. Por ejemplo, al consultar el informe Brundtland con la pregunta "¿Sobrevivirá la raza humana?", el algoritmo responde con frases de similar contenido, como "Dependerá, sobre todo, de la capacidad de la humanidad para evitar una carrera armamentista en el espacio". Este tipo de comparación de sentencias puede ofrecer un análisis más profundo de cómo se articula el lenguaje en torno a temas tan cruciales como la sostenibilidad, los riesgos para el planeta y la supervivencia de las especies.
Por otro lado, la similitud entre documentos también es un campo de estudio dentro de PLN. A través de técnicas como el modelo Doc2Vec, que permite generar vectores para documentos completos, podemos analizar cuán similares son diferentes definiciones o enfoques sobre un mismo tema. Por ejemplo, al analizar diversas definiciones de "productividad" a través de este modelo, podemos observar las conexiones entre conceptos aparentemente distantes pero relacionados, como eficiencia, rentabilidad y sostenibilidad. La clave en este tipo de análisis es que, a diferencia de otros métodos como el Análisis Semántico Latente (LSA), Doc2Vec se entrena con redes neuronales, lo que permite que los vectores resultantes reflejen con mayor precisión el contexto y las relaciones semánticas entre las palabras dentro de los documentos.
Además, es importante destacar que el proceso de entrenamiento de modelos de PLN, como el Doc2Vec, depende de diversos parámetros, como la cantidad de épocas de entrenamiento, la tasa de aprendizaje o el tamaño de los vectores. Estos parámetros influyen en la calidad del modelo y, por ende, en los resultados obtenidos. Es fundamental tener en cuenta estos aspectos para ajustar y optimizar el proceso de análisis de textos, especialmente cuando se trabaja con grandes volúmenes de información relacionada con la sostenibilidad y los cambios sociales y tecnológicos asociados a ella.
El uso de PLN, especialmente en el análisis de grandes corpus de texto sobre sostenibilidad, ofrece una herramienta poderosa para extraer patrones y relaciones entre conceptos, además de facilitar la comparación y agrupación de ideas complejas. Este tipo de herramientas también puede ser crucial para desarrollar nuevas políticas, comprender mejor los riesgos ambientales y generar un lenguaje común que permita abordar los desafíos globales desde una perspectiva más holística y efectiva.
¿En qué consiste la teoría Fractal AI y por qué es “frágil”?
La teoría de Fractal AI propone un enfoque radical para concebir la inteligencia —tanto artificial como teórica— mediante estructuras que evocan los autómatas celulares, en lugar de apoyarse en funciones continuas tradicionales. Según sus autores, esta perspectiva permite desarrollar nuevas herramientas matemáticas, derivadas de un cálculo estocástico no convencional, que modelan la información como patrones fractales en sucesivos “espacios de estados futuros”.
El eje central de Fractal AI es la idea de conos causales: desde un estado inicial, se considera un abanico de trayectorias posibles en el futuro según las acciones disponibles. Cada acción origina un “cono condicional” que corresponde al conjunto de trayectorias derivadas de esa acción inicial. La inteligencia, en este marco, se define como la capacidad de escaneo óptimo de esos conos, de modo que la densidad de exploración en cada trayectoria sea proporcional a la recompensa esperada en esa región del espacio.
Para medir cuán inteligente es ese escaneo, los autores introducen un coeficiente de subóptimo que cuantifica la divergencia entre dos distribuciones: la distribución óptima de escaneo (basada en recompensas) y la distribución real usada por el agente. Minimizar esa divergencia es, en esencia, asumir un comportamiento inteligente.
La implementación práctica recurre a un conjunto de caminantes (walkers) simultáneos. Cada walker simula una trayectoria: primero escoge una acción inicial al azar, luego evoluciona su estado mediante una simulación aproximada del sistema, y así construye muchas trayectorias posibles. Al final, se selecciona la acción inicial cuya trayectoria máxima de recompensa sea la mejor. Esa estructura tiene un carácter inspirado en algoritmos evolutivos: los walkers más exitosos se clonan o propagan, mientras que los de peor desempeño se descartan o mutan.
Una de sus aportaciones más llamativas es la aplicación al dominio de los juegos de Atari, donde el agente basado en Fractal AI logra superar a métodos clásicos como Monte Carlo Tree Search con órdenes de magnitud menos muestras por paso (menos de mil frente a millones) y sin aprendizaje previo. Así, proponen que el problema exploración vs explotación puede resolverse mediante este escaneo fractal equilibrado.
Sin embargo, el calificativo “frágil” en el título no es casual. Esa fragilidad radica en varios límites teóricos y prácticos: la necesidad de definir simulaciones informativas aunque imperfectas, la dependencia de funciones de recompensa bien diseñadas, la tensión entre exploración y explotación al ajustar parámetros (como α en la fórmula de recompensa virtual) , así como el desafío de escalar el enfoque a dominios más realistas o con dimensiones altas. También el enfoque es dependiente de una estructura ideal de simulación: si la simulación no refleja bien el mundo real, el escaneo es engañado.
Un punto adicional es la combinación con aprendizaje: los autores contemplan alimentar redes neuronales con las trayectorias —rollouts— generadas por Fractal AI, para luego usar la red como heurística para guiar futuros escaneos, reduciendo así el número de caminantes o profundización requerida.
Además, les interesa extender el método para que los “coeficientes mentales” de la función de recompensa (la ponderación entre múltiples objetivos) sean también variables controlables por el agente, aplicando Fractal AI recursivamente en ese “nivel mental”.
Es importante que el lector entienda que este enfoque no pretende ser un sistema definitivo de inteligencia artificial ya completo, sino una teoría naciente con herramientas experimentales y límites evidentes. Las ventajas frente a enfoques basados en aprendizaje profundo puro o métodos de planificación tradicionales son circunstanciales en dominios concretos.
Resulta crucial comprender que la propuesta se asienta sobre una visión del mundo como espacio de futuros posibles y sobre la posibilidad de “simular hacia adelante” con suficiente fidelidad. En contextos donde esa simulación es costosa o imprecisa, la teoría se debilita.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский