El lenguaje judicial en torno a la noción de "persona con habilidades ordinarias en la técnica" (PHOSITA) establece una interpretación bastante estricta: se espera que una PHOSITA sea humana y que aplique únicamente creatividad "ordinaria", sin depender de un "autómata", como lo podría ser una inteligencia artificial (IA), que genera soluciones a través de interminables iteraciones sin intervención humana en el proceso creativo. Sin embargo, este enfoque se pierde en una parte clave del discurso del Tribunal Supremo de Estados Unidos, particularmente en el caso KSR. En ese fallo, la Corte rechazó lo que consideraba un análisis "restringido" de la Corte Federal de Apelaciones, en el cual se asumía que una PHOSITA solo tomaría en cuenta el arte previo que resolvía exactamente el mismo problema. El Tribunal Supremo, en cambio, indicó que una PHOSITA pensaría de manera más amplia, reconociendo que "el sentido común enseña que los elementos familiares pueden tener usos obvios más allá de sus propósitos primarios, y que muchas veces una persona con habilidad ordinaria podrá unir las enseñanzas de varios patentes como piezas de un rompecabezas".

Este análisis pone énfasis en la "creatividad", argumentando que una PHOSITA no es un simple "autómata". La conclusión de los jueces es que una PHOSITA debe ser una persona que se involucra en procesos creativos. Esta interpretación sugiere que no se debe excluir el uso de herramientas modernas, como la IA, en el proceso inventivo. Una persona con las herramientas adecuadas a su disposición, incluidas las IAs, sería capaz de elevar el nivel de habilidad en cualquier campo y, por lo tanto, transformar lo que se considera no obvio para fines de patente.

La llegada de la IA está modificando radicalmente la definición de invención. La capacidad de la IA para acceder y procesar vastas cantidades de conocimiento implica que lo que antes podría haber sido considerado una invención no tan obvia, ahora puede parecer evidente. Con IA, el desafío para los examinadores de patentes será mayor, ya que será más difícil demostrar que una invención no es obvia. A la inversa, quienes desafíen una patente, armados con IA, podrán presentar argumentos más contundentes sobre su obviedad.

Este fenómeno cambiará profundamente el campo de la innovación humana. Si bien la IA puede mejorar la capacidad inventiva, también podría llevar a que las contribuciones humanas a las invenciones se reduzcan. La invención, entendida como un destello de genialidad humana, podría ver disminuida su relevancia frente a la vastedad de la información disponible para las IAs, las cuales pueden combinarla de maneras que una mente humana no podría. Esta realidad podría hacer que muchos inventos que antes parecían innovadores sean considerados triviales, y la capacidad de la persona humana para inventar sin el uso de estas herramientas podría ir disminuyendo.

A medida que la IA se hace más accesible, algunos sugieren crear un sistema de patentes en dos niveles: uno para invenciones humanas y otro para aquellas impulsadas por IA. Esto podría ayudar a mantener una distinción clara, pero podría resultar insostenible a medida que la IA se convierte en una herramienta estándar. Con el tiempo, este tipo de distinción podría perder su relevancia, ya que sería casi imposible determinar si una invención fue creada completamente por un ser humano o si la IA desempeñó un papel fundamental en ella.

Por otro lado, los secretos comerciales también se verán profundamente impactados por el avance de la inteligencia artificial. A diferencia de las patentes, cuyo principio fundamental es la divulgación pública del invento, los secretos comerciales se basan en la retención de información confidencial. Sin embargo, la IA puede disminuir la cantidad de información que sigue siendo "secreta", ya que la capacidad de la IA para acceder a grandes cantidades de datos y hacer conexiones rápidas puede poner en duda la definición misma de lo que constituye un "secreto" comercial. De acuerdo con la ley federal de Estados Unidos, un secreto comercial es información que tiene valor económico precisamente porque no es generalmente conocida o fácilmente accesible a través de medios adecuados. Esto implica que, si un secreto se divulga, deja de tener protección.

La capacidad de la IA para descubrir patrones y hechos a partir de información accesible hace que la noción de "secreto" en este contexto también sea difusa. Un descubrimiento hecho a través de IA puede ser considerado igualmente derivado de una fuente previamente conocida, lo que pone en tela de juicio las fronteras de lo que realmente puede considerarse "secreto" en un mundo donde la IA tiene acceso casi ilimitado a datos.

La expansión de la IA podría reducir las oportunidades para los inventores humanos de crear algo genuinamente novedoso sin la asistencia de herramientas como la IA. Este cambio no solo afectaría la patentes, sino también la protección de secretos comerciales, lo que podría generar nuevas dinámicas en los mercados de innovación y propiedad intelectual. Al final, lo que alguna vez fue considerado un "secreto" podría volverse un conocimiento accesible con solo el uso de herramientas adecuadas, lo que cambiaría profundamente las reglas del juego en la creación de nuevas invenciones y en la protección de las mismas.

¿Cómo puede la propiedad intelectual evolucionar ante el impacto de la inteligencia artificial?

La evolución de la propiedad intelectual ante el ascenso de la inteligencia artificial (IA) exige una reflexión profunda sobre los principios fundamentales que han guiado el manejo y protección de las creaciones humanas. Tradicionalmente, estos sistemas han brindado protección a los resultados del trabajo humano, ya sea en forma de patentes, derechos de autor o marcas registradas. Sin embargo, la irrupción de la IA introduce desafíos inéditos, ya que las máquinas son ahora capaces de generar obras, soluciones y productos que tradicionalmente solo los seres humanos podrían haber producido. Este cambio radical obliga a la propiedad intelectual a adaptarse, para continuar respetando las contribuciones humanas y, al mismo tiempo, gestionar las implicaciones éticas y legales de los avances tecnológicos.

En este contexto, el concepto de propiedad intelectual debe ser reconfigurado. Algunos sugieren que es necesario rediseñar las doctrinas de propiedad intelectual para que puedan abordar eficazmente las realidades de la IA, sin perder de vista el valor de la creatividad humana. La solución podría pasar por limitar la protección a un número más reducido de "diamantes brillantes", aquellos productos de creatividad que realmente demuestren un esfuerzo humano y una originalidad que la IA no pueda replicar con facilidad. Así, se podría evitar que la IA abarque toda la esfera creativa, dejando espacio para preservar el valor de la invención humana.

Un paso hacia la solución de este dilema podría ser la creación de un organismo certificador público-privado, universalmente aceptado, que se encargue de autenticar las obras y las invenciones, estableciendo un estándar común en el que tanto los creadores humanos como las máquinas puedan coexistir bajo un marco jurídico claro. Esto permitiría fortalecer la confianza de los usuarios y creadores en los sistemas de propiedad intelectual, al mismo tiempo que permitiría a la industria adaptarse a los nuevos tiempos tecnológicos.

La IA plantea, además, una contradicción fundamental: mientras que la tecnología avanza a pasos agigantados, nuestra comprensión sobre ella y sus consecuencias es aún insuficiente. Este desfase, que se ha hecho especialmente evidente en el ámbito de la cognición y la ética, señala la urgente necesidad de un enfoque más reflexivo y deliberado frente al avance de la inteligencia artificial. Como bien señala el poeta Alexander Pope, "los tontos se precipitan donde los ángeles temen pisar", una cita que resuena fuertemente hoy en día, cuando el mundo intenta adaptarse a una tecnología que aún no comprendemos completamente.

Por lo tanto, la respuesta no está únicamente en regular la IA y sus aplicaciones, sino en comprender profundamente los nuevos horizontes que abre. Si bien ya hemos recorrido un largo camino en el campo de la inteligencia artificial, es evidente que aún queda mucho por aprender. Y en este proceso de aprendizaje, es crucial que las decisiones legales, políticas y económicas se tomen con prudencia, asegurando que el respeto por la contribución humana siga siendo el centro del sistema de propiedad intelectual.

Además de la necesidad de adaptación, también es importante reflexionar sobre la cuestión de los derechos de autor en relación con los materiales utilizados para entrenar los modelos de IA. Cada vez más, surgen casos legales que desafían la legitimidad del uso no autorizado de obras protegidas para alimentar modelos de aprendizaje automático. Artistas, autores y otros creadores de contenido se han visto afectados por el uso no consensuado de sus trabajos, lo que plantea interrogantes sobre la ética de la IA en su relación con la propiedad intelectual. Esta situación exige una regulación más precisa que proteja los derechos de los creadores frente a la explotación comercial de sus obras en el contexto de la inteligencia artificial.

Por otro lado, la noción de "propiedad de los datos" también surge como un tema crucial. A medida que los datos se convierten en el recurso principal para entrenar modelos de IA, surge la preocupación sobre la apropiación indebida de estos datos. La falta de control sobre la utilización de datos personales y profesionales puede generar un desequilibrio en la distribución de beneficios, favoreciendo a unas pocas grandes empresas tecnológicas. Es imprescindible que el marco legal evolucione para abordar estos desafíos, garantizando que los derechos de los individuos y las pequeñas empresas sean respetados en un contexto global de digitalización acelerada.

Endtext

¿Cómo funcionan los sistemas de inteligencia artificial generativa y qué los hace diferentes?

Los sistemas basados en algoritmos adquieren "conocimiento" al procesar datos relevantes para tareas específicas, mejorando su desempeño con el tiempo. Este proceso de "aprendizaje" no es idéntico al aprendizaje humano. En lugar de construir una comprensión teórica de la tarea a lograr, los sistemas de aprendizaje automático identifican correlaciones estadísticas y patrones en los datos de entrenamiento para optimizar su salida de manera sistemática. Un ejemplo clásico de esto es la detección de correos electrónicos no deseados. Un desarrollador humano entrena a un sistema de aprendizaje automático con una gran cantidad de correos electrónicos para identificar cuáles son potencialmente spam, logrando un porcentaje comparable o incluso mejor que el de los humanos. Sin embargo, el sistema de aprendizaje automático no comprende los correos electrónicos con todas las valencias que un ser humano podría tener. En cambio, utiliza las correlaciones estadísticas que ha generado a partir de los correos electrónicos revisados para guiar su clasificación de nuevos correos, que aún no ha visto.

Sin embargo, los sistemas de aprendizaje automático tradicionales, aunque poderosos, no son el enfoque principal de la actual ola de interés en la inteligencia artificial. Estas innovaciones remarcables provienen de una subárea del aprendizaje automático conocida como “aprendizaje profundo”. El aprendizaje profundo utiliza modelos estadísticos computacionales llamados “redes neuronales artificiales”, una rama dentro del aprendizaje automático. Estos modelos son capaces de actualizar su nivel de comprensión cada vez que se les suministra nueva información. Después de ser entrenadas con grandes cantidades de datos no estructurados, en lugar de los datos estructurados que requieren los sistemas tradicionales, estas redes neuronales se vuelven capaces de hacer predicciones robustas, tomar decisiones y generar salidas altamente matizadas.

Las redes neuronales artificiales, como su nombre indica, fueron inspiradas en las redes biológicas del cerebro humano, aunque no las replican. La idea fundamental detrás del aprendizaje profundo es que la red neuronal contiene una gran cantidad de parámetros, a veces llamados “pesos”, incrustados en múltiples capas de “nodos” interconectados, que son algo análogos a las neuronas del cerebro humano. De la misma manera que el cerebro humano posee mecanismos biológicos para procesar y almacenar todo lo que aprendemos, desde hechos hasta lenguaje o emociones, el aprendizaje profundo permite a los sistemas de inteligencia artificial almacenar información y actualizar su comprensión cuando absorben nuevos datos.

En la práctica, un modelo de aprendizaje profundo ajusta sus parámetros cuando se le alimenta con más datos, lo que permite al sistema optimizar su representación de la información con la que fue entrenado. Este proceso es comparable a cómo un niño mejora su capacidad para distinguir entre diferentes animales a medida que ve más perros, gatos y ratones. A nivel técnico, cada capa de la red neuronal extrae diferentes características de los datos de entrada, y las capas posteriores construyen sobre esas características extraídas, lo que permite al modelo de inteligencia artificial refinar su comprensión. De este modo, un niño, que inicialmente distingue entre perros y gatos, eventualmente llega a poder distinguir razas de perros, como el pastor alemán y el labrador.

Lo notable de las redes neuronales modernas es que pueden ser extremadamente grandes, con billones o incluso trillones de parámetros. Más importante aún, estos modelos pueden ser entrenados con vastas cantidades de datos no estructurados recolectados de internet, lo que les permite aprender patrones intrincados y jerárquicos. Una diferencia clave entre el aprendizaje automático tradicional y el aprendizaje profundo radica en cómo ambos sistemas abordan la resolución de problemas. Los algoritmos de aprendizaje automático tradicionales requieren características construidas manualmente, y los ingenieros deben monitorear de cerca el proceso de entrenamiento. En cambio, los modelos de aprendizaje profundo son capaces de extraer de manera autónoma características significativas de los datos crudos, aprendiendo progresivamente las características más útiles para la tarea.

El segundo aspecto importante es la diferencia de capacidades entre ambos tipos de sistemas. Mientras que el aprendizaje automático tradicional suele producir salidas simples, como números o clasificaciones, el aprendizaje profundo es capaz de generar salidas complejas, que incluyen texto y voz robustos. Las capacidades y los resultados de los sistemas de inteligencia artificial dependen de su nivel de complejidad. Los sistemas de aprendizaje automático simples están diseñados y entrenados para un conjunto específico de tareas y operan solo dentro de contextos limitados. Los programas más avanzados, como ChatGPT, demuestran una asombrosa capacidad para responder de manera integral a solicitudes sobre una variedad de temas. No obstante, aunque estos modelos pueden actualizar su conocimiento sobre una tarea o dominio específico, no poseen la capacidad cognitiva o la flexibilidad necesarias para transferir conocimientos a nuevos dominios o tareas.

En contraste con estos sistemas está una clase teórica de inteligencia artificial que podría ser capaz de entender, aprender y aplicar conocimientos a una gama más amplia de tareas de manera comparable o incluso superior a la inteligencia humana. Esta clase se conoce como "inteligencia artificial general" y, actualmente, no existe, y puede que nunca exista. Sin embargo, muchos sistemas de IA actuales realizan tareas cada vez más complejas con una eficiencia superior a la de los humanos. Por ejemplo, un modelo de IA ha sido el mejor jugador de Go durante más de diez años. Robots impulsados por inteligencia artificial están comenzando a realizar cirugías y pueden igualar o incluso superar a los humanos en destreza, precisión y velocidad. Asimismo, ya existen taxis autónomos totalmente operativos que transportan clientes sin intervención humana.

A pesar de estos avances, hay mucho que la IA aún no puede hacer. Muchas tareas en el ámbito físico siguen siendo imposibles para estos sistemas, como cocinar una cena o tender una cama, debido a que carecen de la destreza manual necesaria. Estas limitaciones se evidencian cuando se les pide a los sistemas de IA realizar tareas que requieren más de una acción en un contexto físico complejo.

Finalmente, la inteligencia artificial generativa se encuentra en el centro de este panorama. Estos sistemas, ubicados en la cúspide de los modelos de aprendizaje profundo más sofisticados, están diseñados para crear contenido nuevo, como texto, imágenes, código, audio o video, cuando son solicitados por un usuario. Productos comerciales de IA generativa, como ChatGPT, están revolucionando la forma en que interactuamos con la tecnología, generando texto similar al humano a partir de entradas de texto del usuario. Esta capacidad ha provocado un nuevo “boom” de la inteligencia artificial, dando inicio a una era de generación de contenido a través de algoritmos complejos y poderosos.

La popularidad de ChatGPT ha llevado a muchos a comprender la profundidad de estas tecnologías, aunque es esencial entender que, aunque estos modelos pueden producir salidas que imitan la producción humana, no comprenden realmente el significado detrás de lo que generan. La IA generativa, como cualquier otra forma avanzada de inteligencia artificial, tiene limitaciones inherentes que aún la alejan de una comprensión plena del mundo y de la experiencia humana.