El concepto de "obviedad" en el ámbito de las patentes es fundamental para determinar si una invención es patentable o si, por el contrario, es demasiado evidente a partir del estado anterior de la técnica. Según la doctrina clásica, para que una invención sea considerada obvia, debe existir una “enseñanza, sugerencia o motivación” que lleve a un experto en la materia (PHOSITA, por sus siglas en inglés) a combinar elementos del estado anterior de la técnica y llegar a la invención en cuestión. Esta teoría, conocida como la prueba TSM (Teaching, Suggestion, or Motivation), ha sido objeto de controversia, especialmente después del caso KSR en 2007. En esa ocasión, la Corte Suprema de los Estados Unidos criticó la aplicación rígida de esta prueba por parte del Circuito Federal, aunque no la desechó completamente.
A pesar de las advertencias de la Corte Suprema sobre no convertir la prueba TSM en una fórmula inflexible, la tendencia ha sido, por parte del Circuito Federal, seguir aplicando esta prueba con poca flexibilidad, lo que ha dejado la doctrina de la obviedad en una suerte de impasse. La continua aplicación del TSM por los tribunales demuestra cómo las ideas de la Corte Suprema no siempre se traducen en cambios tangibles en la práctica judicial. La composición de la Corte ha cambiado significativamente desde la decisión de KSR, lo que ha dejado este campo de la ley sin una resolución definitiva.
En este contexto, la inteligencia artificial (IA) comienza a jugar un papel disruptivo, ya que ofrece una capacidad única para analizar y combinar grandes volúmenes de información. Un modelo de IA tiene acceso a un cúmulo de información mucho más amplio que cualquier persona con habilidades ordinarias en la técnica, y su capacidad para interpretar esa información es notablemente más sofisticada. La IA no solo tiene la capacidad de encontrar ejemplos de arte anterior, sino que puede analizar de manera más profunda y precisa los datos disponibles, lo que podría modificar radicalmente la forma en que se evalúa la obviedad de una invención.
La ley actual exige que el arte anterior sea accesible al público y puede incluir patentes publicadas, aplicaciones patentarias, publicaciones académicas, catálogos y otros materiales similares. A pesar de que los tribunales han permitido que incluso publicaciones menos conocidas, como actas de conferencias o artículos publicados en foros de discusión en línea, puedan servir como arte anterior, los métodos tradicionales de búsqueda de documentos requieren que los expertos se basen en palabras clave exactas para localizar fuentes relevantes. La IA, por el contrario, tiene la capacidad de "aprender" a identificar fuentes relevantes que no necesariamente contienen las palabras exactas buscadas, sino que puede encontrar ideas expresadas de diversas maneras a través de una red neuronal entrenada en una vasta cantidad de información pública.
Esta capacidad de la IA va más allá de la simple búsqueda de documentos relevantes; también tiene la capacidad de combinar áreas de arte anterior de maneras que los seres humanos, incluso con expertos en diversas disciplinas, tendrían dificultades para hacer. La IA puede identificar patrones y sugerencias en campos dispares y predecir cómo esos elementos podrían combinarse para producir una invención, lo que facilita la detección de la obviedad en una invención.
Una cuestión interesante es si la IA debería ser considerada como "un experto ordinario en la técnica" (PHOSITA). Tradicionalmente, PHOSITA se define como una persona con habilidades y creatividad promedio en el campo correspondiente, sin ser una máquina. Sin embargo, si consideramos que la IA puede ser una herramienta utilizada por los inventores, algunos argumentan que podríamos redefinir la idea de PHOSITA para incluir a una persona que use IA en el proceso de invención. Esta visión propone que la habilidad técnica no debería verse como algo aislado del uso de las tecnologías actuales.
El concepto de obviedad se complica aún más al considerar la capacidad de la IA para generar nuevas combinaciones de ideas o incluso nuevos enfoques para resolver problemas, basándose en el vasto conocimiento disponible en la red. A medida que los sistemas de IA continúan evolucionando, algunos investigadores sugieren que es posible que lleguemos al punto en el que la IA pueda crear invenciones completamente nuevas, lo que desdibujaría aún más las líneas entre lo que es "obvio" y lo que es una verdadera innovación.
Un aspecto clave que debe tener en cuenta el lector es que la inteligencia artificial, aunque poderosa, depende del ser humano para guiarla y darle sentido. La precisión y eficacia de los resultados obtenidos por IA dependerán de cómo se le planteen las preguntas o los "prompts" utilizados en su interacción. De esta forma, la habilidad del operador de la IA será determinante para el éxito del proceso. Esto significa que, aunque la IA puede ofrecer resultados impresionantes, aún está lejos de ser una herramienta infalible y requiere un manejo adecuado para ser efectiva.
Es importante también que los lectores comprendan que, aunque la IA tiene el potencial de cambiar las reglas del juego en lo que respecta a la obviedad de las patentes, no está exenta de limitaciones. Los sistemas actuales de IA no pueden crear innovaciones radicales o romper los límites de la creatividad humana; en cambio, se especializan en reconfigurar y combinar el conocimiento ya existente. Esto significa que, en muchos casos, una invención que puede ser creada por IA aún depende de un salto creativo humano para ser verdaderamente innovadora.
¿Cómo la inteligencia artificial amenaza la protección de secretos comerciales?
La inteligencia artificial (IA) plantea desafíos inéditos para las leyes de secretos comerciales, especialmente en el contexto de exposiciones accidentales de información confidencial. La creciente interacción de los empleados con sistemas de IA generativa puede poner en riesgo la integridad de secretos valiosos, sin que los involucrados se den cuenta de que han comprometido información crucial para la empresa.
Imaginemos una situación común: un ejecutivo introduce información de una estrategia corporativa en un sistema de IA, solicitando que genere una presentación o resuma ciertos datos. A la vez, un analista introduce cifras financieras de la compañía para organizar los datos en una hoja de cálculo. Estos simples actos, que parecen inocentes y rutinarios, pueden llevar a que esa información sea almacenada en el sistema de IA, creando una posible vulnerabilidad. De manera insospechada, esta información podría formar parte de futuros entrenamientos del sistema y ser utilizada por competidores que realicen consultas al modelo sobre los planes estratégicos de la empresa.
El caso de Samsung ilustra la gravedad del problema. Un empleado de la empresa cargó código defectuoso de una base de datos interna en un chatbot de IA, pidiendo una solución para los errores. Otro empleado hizo lo mismo con información sobre equipos diferentes. El problema surgió cuando otro colaborador pidió un resumen de notas de una reunión, lo que podría haber incluido detalles sobre los planes estratégicos de la compañía. Al darse cuenta del riesgo, los ejecutivos de Samsung limitaron el uso del chatbot a 1,024 bytes por entrada para reducir la probabilidad de que la información fuera utilizada para entrenar futuras versiones del modelo. A pesar de estas precauciones, la situación sigue siendo preocupante. La IA tiene la capacidad de asociar información de diversas fuentes aparentemente inocuas, lo que puede revelar datos sobre decisiones estratégicas, investigación en curso, o incluso detalles de la estructura de clientes y proveedores de la compañía.
A medida que la IA evoluciona, el reto se vuelve aún más complejo. Incluso si una empresa logra evitar que su información se filtra hacia la red o en modelos de IA, la ley de secretos comerciales aún se enfrenta a un dilema fundamental: la capacidad de la IA para generar secretos comerciales de manera independiente. Si una IA llega a la misma solución que una empresa ha protegido como secreto, sin haber tenido acceso directo a la información de esa empresa, la legalidad de proteger dicho secreto se ve comprometida. Esto podría ocurrir, por ejemplo, si una empresa tiene un método secreto para reducir el ruido de un soplador de hojas, pero una IA, en algún momento, llega a una solución similar por su propia cuenta. En este escenario, un competidor podría alegar que el secreto ya no es verdaderamente "secreto", pues la IA puede generar la misma solución independientemente de cualquier filtración previa.
Este fenómeno también podría aplicarse a la recopilación de listas de candidatos para posiciones específicas, donde la agencia ha invertido años en relaciones personales y de confianza. La IA podría, sin embargo, derivar la misma información a partir de búsquedas en la web y análisis de patrones en redes sociales y otros contenidos públicos. En este caso, aunque la agencia haya acumulado esta información con esfuerzo humano durante años, la IA podría replicar ese conocimiento, lo que pondría en cuestión la protección de esos datos como secretos comerciales.
Es crucial tener en cuenta que la capacidad de la IA para generar información similar a un secreto comercial no depende únicamente de que un competidor haya obtenido esa información de forma fortuita. Si una IA logra generar la misma solución sin haber tenido acceso directo a los datos originales, la ley podría considerar que la información es "fácilmente accesible", lo que debilitaría su protección como secreto comercial.
Otro aspecto importante a considerar es la evolución futura de la IA. En el estado actual, la calidad de los resultados generados por la IA depende en gran medida de la habilidad del usuario y del modelo de IA utilizado. Sin embargo, a medida que la tecnología de IA avance, es posible que la habilidad humana requerida para operar estos sistemas se reduzca, permitiendo a un mayor número de personas acceder a soluciones similares. En un futuro, los sistemas de IA podrían ser capaces de generar resultados prácticamente idénticos a los secretos comerciales, con menor intervención humana, lo que reducirá drásticamente el número de secretos que podrán seguir siendo protegidos legalmente.
La consecuencia de estos avances tecnológicos será una drástica reducción en el número de secretos comerciales que serán considerados dignos de protección. Los avances en IA podrían hacer que una gran parte de los secretos comerciales actualmente protegidos sean más fácilmente desafiables en los tribunales, abriendo un panorama donde las empresas deberán replantear sus estrategias de protección de la información confidencial.
¿Cómo está cambiando la inteligencia artificial la protección y el valor de la propiedad intelectual?
La propiedad intelectual, entendida como el derecho exclusivo que otorgan las leyes sobre las creaciones de la mente, siempre ha estado en constante evolución, influenciada por las innovaciones tecnológicas y los cambios en la sociedad. Con la aparición de la inteligencia artificial (IA), los efectos sobre los derechos de autor y la valoración de las obras protegidas por propiedad intelectual se han vuelto aún más complejos. Uno de los aspectos más preocupantes de este fenómeno es la capacidad de la IA para aprender a trabajar en los límites legales sin sobrepasarlos, lo que plantea interrogantes sobre el concepto mismo de "infracción". Si bien los creadores humanos siempre han podido contratar abogados para evitar infringir derechos de autor, el costo de esta tarea es desproporcionado. En cambio, la IA tiene la capacidad de realizar esta labor de manera eficiente y precisa en cuestión de segundos, lo que promete transformar el panorama legal de la creación.
A medida que la tecnología evoluciona, es posible que surjan soluciones que mitiguen algunos de estos problemas. Se especula que las IA podrían ser programadas para rastrear y etiquetar sus fuentes de inspiración, con la esperanza de que puedan indicar el origen de la información, asegurando que no se trata de "alucinaciones" o reproducciones indebidas de trabajos existentes. Sin embargo, la viabilidad de esta solución sigue siendo incierta, ya que podría generar obstáculos adicionales para la IA y sus usuarios. Más aún, existe el riesgo de que estos registros sean ignorados, desvirtuando el propósito de la transparencia.
En este contexto, algunos países han empezado a implementar propuestas para aumentar la confianza en los sistemas de IA mediante la divulgación. En los Estados Unidos, la Oficina de Derechos de Autor exige a los autores que incluyan una explicación de las contribuciones humanas cuando se use IA en la creación de una obra. En Europa, los proveedores de sistemas de IA diseñados para interactuar con seres humanos deben informar a los usuarios sobre la naturaleza de la interacción. Esta tendencia hacia la divulgación es un paso importante, pero plantea un dilema: si la información divulgada es demasiado general, como en el caso de los avisos genéricos sobre el uso de IA, podría perder eficacia, haciendo que los usuarios no presten atención o no comprendan la relevancia de la información proporcionada. Este fenómeno es similar a la situación en California con las advertencias de la Proposición 65, donde la sobreabundancia de avisos ha llevado a que los ciudadanos ignoren la mayoría de ellos, sin poder identificar cuáles realmente requieren atención.
En este sentido, el desafío principal radica en cómo la IA puede alterar la percepción pública sobre la confiabilidad de las obras protegidas por derechos de autor. Si las IA tienen la capacidad de generar contenido que parece más preciso, ético o confiable de lo que realmente es, esto podría generar una falsa sensación de seguridad en el consumidor. En lugar de fortalecer la confianza en el sistema de propiedad intelectual, esta capacidad podría erosionarla, especialmente si los usuarios ya no tienen una idea clara del valor o el origen de lo que consumen. A medida que la IA genera incertidumbre sobre la fiabilidad y la autenticidad de las obras, la percepción del valor de los derechos de autor podría verse gravemente afectada.
La incertidumbre, como saben los economistas, es un factor que destruye valor. Así, cuando la IA introduce incertidumbre sobre el origen de una obra o sobre la calidad de la misma, socava la base misma sobre la que se fundamentan los sistemas de propiedad intelectual. Un claro ejemplo de esto lo vemos en la tendencia de la IA a producir contenido que, aunque técnicamente correcto, puede carecer de profundidad, creatividad o incluso humanidad. La capacidad de la IA para generar textos que son funcionales, pero carecen de las sutilezas de la intuición humana, plantea la cuestión de si estamos creando una sociedad en la que se premia la mediocridad. Este fenómeno, si se generaliza, podría llevar a una disminución del valor general de la propiedad intelectual, ya que las obras de menor calidad, aunque más abundantes, no contribuyen al enriquecimiento cultural ni al desarrollo humano.
La mediocridad generada por la IA también plantea desafíos en términos de la valoración de las obras. En un mercado donde la calidad parece cada vez más homogénea y la originalidad pierde peso frente a la eficiencia, el sistema de propiedad intelectual podría dejar de ser un motor de innovación y creatividad. Si la recompensa se otorga a productos de calidad inferior, el valor total de los derechos de autor podría verse mermado. Además, este escenario genera dudas sobre lo que realmente estamos premiando como sociedad: ¿deberíamos seguir valorando la propiedad intelectual si esta ya no refleja la creatividad genuina, sino solo la capacidad de producir contenido rápido y en grandes cantidades?
Es crucial comprender que el valor de la propiedad intelectual no solo radica en el derecho exclusivo sobre una creación, sino también en la confianza pública en ese valor. Si esta confianza se ve afectada por la percepción de que las obras no son auténticas o que han sido creadas por medios artificiales sin la intervención humana genuina, el sistema de propiedad intelectual podría perder su propósito fundamental. Al igual que en otras áreas del derecho, la estabilidad y la claridad en los criterios de valoración son esenciales para que el sistema funcione. La introducción masiva de IA podría alterar este equilibrio y hacer que la protección de los derechos de autor sea cada vez más compleja y menos efectiva.
¿Cómo gestionaremos la responsabilidad en la inteligencia artificial?
El debate sobre la responsabilidad en la inteligencia artificial (IA) está tomando un giro crucial en el contexto global. En la medida en que los sistemas automatizados, como los algoritmos de IA, se integran cada vez más en nuestras vidas, surge una pregunta fundamental: ¿quién es responsable cuando estos sistemas cometen errores o toman decisiones equivocadas? Esta cuestión no es solo técnica, sino también filosófica, ética y legal.
En primer lugar, la noción de responsabilidad en IA no puede desvincularse de las discusiones más amplias sobre la transparencia y la rendición de cuentas en los sistemas automatizados. Los sistemas de IA, a menudo descritos como "cajas negras", son diseñados de tal manera que sus decisiones no siempre son comprensibles o explicables para los usuarios humanos. Este aspecto de la IA ha planteado preocupaciones sobre cómo podemos confiar en máquinas que, en muchos casos, operan de forma opaca. En este sentido, la "interpretabilidad" o "explicabilidad" de los modelos de IA se ha convertido en un tema clave. Los expertos en aprendizaje automático están buscando maneras de hacer que estos sistemas sean más comprensibles para los humanos, pero también deben considerar hasta qué punto es posible que una máquina sea completamente explicativa de sus propios procesos decisionales.
Una de las principales dificultades radica en la definición de la responsabilidad. El concepto de accountability en el contexto de la IA, como lo presentan varios estudios y autores, se refiere a la obligación de justificar las decisiones tomadas por un sistema automatizado. Esto implica no solo un análisis posterior de las decisiones, sino también un marco estructurado que garantice que los actores involucrados rindan cuentas ante una autoridad. Sin embargo, a medida que los sistemas de IA se desarrollan y se integran en diversos sectores, como la salud, la educación, la banca o el transporte, las preguntas sobre a quién se le debe pedir explicaciones se complican.
Un punto crucial es la distinción entre responsabilidad individual y responsabilidad colectiva. Los sistemas de IA, por su naturaleza, a menudo son el producto de colaboraciones entre múltiples actores: programadores, ingenieros, empresas, reguladores, y usuarios. Si un sistema de IA comete un error grave, como una discriminación injusta o un accidente, ¿quién tiene la última palabra sobre esa responsabilidad? Los desarrolladores de software, los proveedores de datos, los organismos reguladores e incluso los usuarios finales pueden ser considerados responsables de manera diferente, dependiendo del contexto.
Además, la regulación juega un papel fundamental en la definición de la responsabilidad. En este sentido, varios países y bloques regionales están tomando medidas para establecer marcos legales específicos para la IA. Un ejemplo importante es la Ley de IA de la Unión Europea, que fue aprobada en 2024. Este conjunto normativo establece directrices sobre el uso de IA, promoviendo un enfoque centrado en el ser humano y fomentando la confianza en la tecnología. A pesar de su ambición, la ley no está exenta de críticas. Algunos sugieren que las regulaciones podrían sofocar la innovación, mientras que otros consideran que no son suficientes para abordar los riesgos inherentes a los sistemas de IA avanzados. Sin embargo, es un paso significativo hacia la creación de un entorno legal donde la IA sea regulada de manera justa, y sus creadores sean responsabilizados.
Es vital también considerar la rendir cuentas de las decisiones no solo en el sentido de las consecuencias inmediatas, sino también respecto a los impactos a largo plazo. Por ejemplo, un algoritmo que discrimina puede no solo causar un daño en el momento del fallo, sino que puede perpetuar desigualdades y estigmas en las generaciones futuras si no se toman las medidas correctivas adecuadas. Los marcos de responsabilidad deben incorporar mecanismos para garantizar que las decisiones de IA sean evaluadas no solo en función de sus efectos inmediatos, sino también de sus repercusiones a largo plazo en la sociedad.
A la luz de lo anterior, se deben adoptar medidas proactivas para asegurar la equidad en los algoritmos, lo que va más allá de la simple programación sin sesgos. Las implicaciones éticas y sociales de los sistemas de IA deben ser evaluadas con el mismo rigor con el que se evalúan las cuestiones técnicas. El marco ético debe ser parte integral del proceso de desarrollo de cualquier tecnología de IA, garantizando que se respeten los derechos humanos y los principios democráticos.
Por otro lado, la educación sobre IA y sus implicaciones también juega un papel fundamental. Las universidades y otras instituciones educativas están comenzando a replantear la manera en que enseñan a los futuros profesionales, no solo en términos de las capacidades técnicas necesarias, sino también en relación con las habilidades éticas y legales. De este modo, los expertos y profesionales que trabajen en IA estarán mejor preparados para enfrentar las complejidades relacionadas con la rendición de cuentas y la responsabilidad.
Es evidente que la responsabilidad en la IA es un tema multifacético que involucra no solo la tecnología, sino también a los sistemas legales, las estructuras organizativas y la ética social. A medida que la IA continúa evolucionando, será crucial que los actores involucrados, desde los desarrolladores hasta los reguladores y los usuarios, trabajen juntos para garantizar que las decisiones tomadas por estos sistemas sean justas, transparentes y responsables.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский