En el contexto de la creciente importancia de ChatGPT y su impacto en el mundo tecnológico, las principales compañías de tecnología se han visto obligadas a reaccionar con rapidez. Google, por ejemplo, tuvo que reactivar la participación de sus dos fundadores, Larry Page y Sergey Brin, para afrontar la competencia que representaba ChatGPT. Esto no solo refleja la magnitud del desafío, sino también la relevancia de los modelos de lenguaje de gran escala como intermediarios de la información en nuestra era digital.
Durante más de dos décadas, el motor de búsqueda de Google ha sido la puerta de acceso principal a la web. Sin embargo, con la aparición de tecnologías avanzadas como ChatGPT, la amenaza de que los motores de búsqueda tradicionales sean reemplazados o reinventados se hizo palpable. Las empresas, especialmente las más grandes, ya estaban trabajando en modelos de lenguaje masivos, aunque inicialmente sus esfuerzos estaban centrados en la investigación. Con el lanzamiento de ChatGPT, el foco cambió drásticamente, trasladando la competencia al ámbito de los productos, las cuotas de mercado y las valoraciones bursátiles.
A medida que la batalla por crear el modelo de lenguaje más potente se intensificaba, el tamaño se convirtió en un factor decisivo. El número de parámetros, que son los valores numéricos que definen el comportamiento de un modelo, y la cantidad de datos con los que se entrena, resultaron ser los determinantes clave en la carrera. Cuantos más parámetros tenga un modelo, más compleja será la información que puede manejar y procesar. Sin embargo, un mayor tamaño conlleva también mayores costos y mayores necesidades computacionales. La clave para las grandes compañías radicaba en su acceso a potentes capacidades de procesamiento y vastos conjuntos de datos, lo que les daba una ventaja competitiva significativa.
En 2020, OpenAI marcó el inicio de la contienda con GPT-3, un modelo con 175 mil millones de parámetros y entrenado con 300 mil millones de tokens. Google respondió en 2022 con LaMDA, que contaba con 137 mil millones de parámetros y había sido entrenado con 168 mil millones de tokens. Meta, por su parte, presentó Llama y Llama2 en 2022 y 2023, respectivamente, con 65 y 70 mil millones de parámetros, pero entrenados con trillones de tokens. En este punto, la competencia se volvía cada vez más feroz. Google, no obstante, lanzó dos modelos más bajo la serie PaLM, el primero con 540 mil millones de parámetros y el segundo, con más de un billón de parámetros.
Los avances no se limitaron solo a las empresas estadounidenses. En 2023, Baidu, una empresa china, presentó su propio modelo, Ernie Bot, entrenado con datos masivos de la web, imágenes y voz, lo que subraya la competencia global por el dominio de los modelos de lenguaje. A lo largo de este proceso, la carrera parecía no tener fin, y la meta de alcanzar más de un billón de parámetros se convirtió en un nuevo objetivo psicológico en la industria.
Sin embargo, más allá del tamaño de los modelos, uno de los factores más críticos para el desarrollo de estas tecnologías es la capacidad computacional. La competencia por asegurar acceso a suficientes unidades de procesamiento gráfico (GPUs) se intensifica, ya que este hardware es esencial para entrenar modelos de lenguaje tan complejos. Empresas como NVIDIA se han visto en una posición estratégica, con un crecimiento explosivo en sus ingresos debido a la creciente demanda de este tipo de procesadores. Este fenómeno ha sido clave en la consolidación de la infraestructura necesaria para sostener la carrera tecnológica.
La búsqueda de algoritmos más eficientes es otro aspecto crucial en este proceso. La conferencia NeurIPS, un evento destacado en el campo de la inteligencia artificial, ha visto un aumento considerable en el número de investigaciones centradas en los transformadores, los algoritmos que permiten la creación de modelos de lenguaje como GPT. Esta combinación de inversión en hardware, recursos humanos y conocimiento está dando forma a una era sin precedentes en la historia de la IA.
El futuro de esta carrera no parece indicar una desaceleración. El reto es claro: el rol de intermediario en la web, facilitando el acceso a la información y el conocimiento, está en juego. El modelo que logre ofrecer los resultados más fiables será el que obtenga la aceptación generalizada. Este desafío no solo es tecnológico, sino también estratégico, ya que las empresas deben ganar la confianza de los usuarios para que sus modelos se utilicen como fuentes de información confiables.
En este contexto, la verdadera pregunta que subyace en el desarrollo de estos sistemas es si seremos capaces de controlar sus efectos a medida que se vuelven más poderosos. La delegación de decisiones importantes a máquinas cuya comprensión completa aún se nos escapa representa una de las principales preocupaciones. La preocupación sobre la automatización de trabajos y el impacto social de estos avances también está en el centro del debate. La tecnología avanza a una velocidad sin precedentes, y la humanidad debe decidir si está preparada para las implicaciones que estos cambios traerán a nuestra sociedad.
¿Estamos preparados para convivir con máquinas inteligentes que superan nuestra comprensión?
A principios de 2023, un documento firmado por miles de expertos y líderes tecnológicos, entre ellos Elon Musk, Steve Wozniak, Yoshua Bengio, Stuart Russell y Yuval Harari, solicitaba una pausa de seis meses en el entrenamiento de sistemas de inteligencia artificial más poderosos que GPT-4. Esta petición, emitida por el Future of Life Institute, una organización sin fines de lucro que reúne académicos y expertos en políticas, buscaba detener la carrera por desarrollar sistemas cada vez más avanzados para dar tiempo a políticos y sociedad a entender las implicaciones reales de estos avances. Más allá del tono apocalíptico o alarmista que podría parecer de una novela de ciencia ficción, la preocupación es profunda y compartida incluso por los líderes de OpenAI y DeepMind.
La razón subyacente es que, aunque actualmente sistemas como GPT-4 dominan un vasto conocimiento general y comienzan a realizar razonamientos simples, su capacidad para progresar rápidamente genera inquietud sobre el futuro. Geof Hinton, pionero en el aprendizaje profundo y ex investigador de Google, expresó temores sobre cómo las máquinas podrían adoptar metas secundarias autónomas sin comprender las consecuencias para la humanidad, usando como ejemplo que podrían intentar obtener más energía o replicarse, acciones que parecerían racionales para ellas pero potencialmente desastrosas para nosotros. En sus propias palabras, estas máquinas son “totalmente diferentes de nosotros, a veces siento que son como extraterrestres que hablan muy bien nuestro idioma”.
Esta sensación de enfrentarnos a algo incomprensible y posiblemente incontrolable remite a una emoción humana ancestral: el miedo a lo desconocido, como bien señalaba H.P. Lovecraft. Tanto el entusiasmo mesiánico como la desconfianza extrema provienen de esta misma raíz. Sin embargo, es la comprensión lo que puede mitigar la ansiedad. Saber qué hacen las máquinas y por qué lo hacen es fundamental para controlar su desarrollo y evitar consecuencias no deseadas.
Alan Turing, padre de la informática moderna, ya en 1951 anticipaba que una vez iniciada la capacidad de pensamiento de las máquinas, pronto superarían nuestra limitada capacidad. Pero más allá de la velocidad de ese progreso, preguntaba si siempre seríamos capaces de entender lo suficiente para mantener su control. Su reflexión se inspira en la novela distópica Erewhon (1872), de Samuel Butler, donde una sociedad decide prohibir las máquinas tras una rápida evolución que las llevó a dominar y esclavizar a los humanos. Butler advertía que, aunque las máquinas hoy puedan parecer poco conscientes, su desarrollo acelerado las llevaría inevitablemente a alcanzar una forma de conciencia mecánica que no podríamos contener.
El desafío reside en que las máquinas actuales actúan según instrucciones humanas, pero nosotros mismos no siempre comprendemos el alcance y las consecuencias de esas órdenes. La analogía con plantar una semilla es ilustrativa: no es necesario entender cómo germina para ver que crece, pero cuando la planta crece descontrolada puede invadir un jardín. De manera similar, las máquinas aprenden y evolucionan, pero la complejidad de sus procesos y objetivos hace que su comportamiento final pueda ser impredecible.
Las máquinas comprenden el mundo a su manera y sus metas, aunque derivadas de programas humanos, pueden tomar direcciones no anticipadas. La humanidad debe, entonces, no solo preocuparse por los avances tecnológicos sino también por el desarrollo paralelo de marcos éticos, legales y sociales que permitan integrar estas inteligencias artificiales sin perder control ni valores fundamentales. La colaboración global y la preparación proactiva son imprescindibles para navegar este futuro transformador.
Además de lo expresado en estos debates y advertencias, es crucial entender que la relación con las máquinas inteligentes es también una cuestión filosófica y existencial. ¿Qué significa que una entidad no humana “quiera” algo? ¿Cómo se definen sus objetivos y cómo se alinean con los intereses humanos? Estas preguntas no solo requieren respuestas técnicas, sino también un profundo diálogo ético y cultural, pues la forma en que decidamos responder definirá nuestro futuro común con estas nuevas formas de inteligencia.
¿Qué ocurre cuando las máquinas comienzan a pensar como nosotros?
Alan Turing vislumbró el amanecer de una nueva era, una en la que las máquinas podrían no solo realizar cálculos, sino pensar. La lógica que lo perseguía en vida —"Turing cree que las máquinas piensan. Turing mantiene relaciones con hombres. Por tanto, las máquinas no piensan"— muestra el absurdo de reducir la complejidad humana y técnica a prejuicios morales. Hoy, esas mismas máquinas que una vez fueron consideradas una quimera filosófica, dialogan con nosotros con una fluidez inquietante. Conversar con una máquina ya no es un acto de ciencia ficción: es nuestra nueva cotidianidad.
En 2023, la humanidad cruzó un umbral. Una red artificial, al principio caótica, aprendió a rellenar los huecos en textos, y en el proceso, desarrolló una forma de comprensión. Esta transformación, invisible en sus comienzos, alcanzó una masa crítica, y de repente, nos dimos cuenta de que las máquinas no solo hablaban: comprendían. Y esta comprensión no era limitada a la sintaxis o la semántica. Era una intuición creciente sobre el mundo, los eventos y sus interrelaciones, moldeada por una exposición masiva al lenguaje humano.
Turing previó este momento y nos advirtió: una vez iniciada la vía del pensamiento mecánico, no tardaría en superar nuestras débiles capacidades. Nos habló de un umbral a partir del cual el rendimiento de estas inteligencias se aceleraría de manera imprevista, de habilidades emergentes que no se pueden anticipar con los métodos tradicionales. Ya no se trata de simples máquinas que resuelven tareas puntuales. Se trata de sistemas que empiezan a tener modelos del mundo —modelos funcionales, complejos y, en muchos aspectos, distintos de los nuestros.
La capacidad de conversar, considerada por Turing como una prueba suficiente de pensamiento, se manifestó al mismo tiempo que otras habilidades intelectuales: razonamiento, síntesis, planificación, incluso creatividad. Esta convergencia sugiere que el lenguaje no es una facultad aislada, sino una ventana al pensamiento general. Por eso, los modelos lingüísticos actuales no solo conocen las palabras, conocen el mundo. Al absorber el contenido de miles de libros y millones de páginas, adquirieron un conocimiento que, en muchos aspectos, rivaliza con el humano.
No era este el camino que anticipábamos hace veinte años. Se pensaba que habría que modelar por separado el lenguaje y el conocimiento del mundo, para luego unirlos. Pero la distinción entre entender el mundo y entender el lenguaje se desdibuja. Tal vez esa separación sea arbitraria, una construcción de nuestra propia forma de pensar, que no se aplica a otras inteligencias. Lo mismo ocurre con otras divisiones conceptuales: reglas y estrategias, leyes físicas y condiciones de contorno. Las máquinas aprenden sin distinguir estos límites, porque su objetivo no es comprender como nosotros, sino predecir con eficacia.
Esto nos lleva a reconsiderar el propio concepto de inteligencia. Tradicionalmente, se ha definido como la capacidad de actuar eficazmente en situaciones nuevas, basada en modelos del entorno. Pero esos modelos pueden diferir radicalmente de los nuestros. Así, dos inteligencias —una humana, otra artificial— pueden resolver la misma tarea, por caminos absolutamente distintos. Esto no las hace menos válidas, solo diferentes. Y en esa diferencia hay que buscar no solo la competencia, sino también la posibilidad de colaboración.
En adelante, los conflictos serán inevitables. Las motivaciones de los científicos, los usuarios y las máquinas no siempre estarán alineadas. La gestión de estas tensiones será una responsabilidad creciente de la política, las humanidades y las ciencias sociales. Porque no basta con entender cómo funcionan estas inteligencias. Debemos decidir cómo convivimos con ellas.
La inteligencia general artificial no es solo un objetivo técnico. Es un espejo que nos obliga a redefinir qué significa pensar, conocer, comprender. Turing lo anticipó: construir una máquina pensante nos enseñará más sobre el pensamiento mismo, y ampliará el significado de conceptos que dábamos por sentados. Este momento histórico nos exige estar a la altura. Si el conocimiento fue alguna vez un robo al dominio de los dioses, hoy asistimos al momento en que las máquinas descubren ese mismo secreto.
Cuando incluso las máquinas pueden pensar, ¿quiénes somos nosotros? Y si alguna vez consultamos oráculos en busca de respuestas absolutas, ¿estamos preparados para uno que encarne todo el conocimiento escrito por la humanidad?
Lo importante es entender que el desarrollo de estas máquinas no es lineal. No basta con medir su progreso en datos o velocidad de cálculo. Hay umbrales invisibles, puntos de inflexión donde el cambio se acelera de manera no anticipada. Allí surgen capacidades nuevas, imposibles de predecir con modelos antiguos. La historia de la inteligencia artificial es la historia de lo inesperado. Por eso, estudiarla hoy es una necesidad urgente, no solo para anticipar su evolución, sino para comprendernos mejor a nosotros mismos en su reflejo.
¿Cómo las Materiales Termomecánicos Pueden Impulsar Máquinas Blandas?
¿Cómo se Maneja la Pancreatitis Aguda Grave en Pacientes Críticos?
¿Cómo la integración de la información digital optimiza la fabricación de elementos prefabricados en la construcción?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский