El problema más grande de la IA generativa es que no tiene ni idea de lo que significa pedir permiso. ¿Licencias? Como si no existieran. Ya sabes, eso de pedir permiso antes de usar algo que no es tuyo. Pues bien, Adobe está aquí, intentando arreglar este berenjenal con su nuevo Firefly Video Model, y nos promete que es la primera IA «comercialmente segura», es decir, una herramienta diseñada específicamente para garantizar que no habrá problemas legales al usar los vídeos generados con ella. A mí todo esto me suena a «intentemos no acabar en los tribunales, por favor». ¿Funcionará? Quién sabe, pero vamos a verlo.
El problema que nadie quiere admitir: derechos de autor
Mira, la IA generativa tiene un pequeño defecto de fábrica. Y es que, para aprender a hacer cosas chulas como imágenes, textos o ahora hasta vídeos, necesita consumir datos. ¿De dónde sacan esos datos? Fácil: de internet. Y claro, la mayoría del contenido en internet tiene dueño. Aquí es donde todo empieza a torcerse. Empresas como OpenAI, Meta, y muchas otras, han estado entrenando sus modelos con cualquier cosa que pillan por ahí. Sin permiso. Sin licencias. Una receta perfecta para demandas judiciales. Un ejemplo claro de esto fue la demanda contra OpenAI por utilizar contenido sin permiso en sus modelos de IA, y también Stable Diffusion, que ha sido llevada a los tribunales por artistas que acusan a la plataforma de infringir sus derechos de autor.
La movida es que la IA lo quiere todo. Se ha convertido en una especie de «aspiradora» de contenido. Y bueno, los creadores de ese contenido están empezando a hartarse. Han visto cómo sus obras se usan para entrenar estos modelos sin recibir ni un mísero crédito. Ni dinero. Nada de nada. No nos engañemos, todo esto ha llevado a muchas empresas a enfrentarse a demandas que podrían costarles millones.
Adobe intenta algo diferente: la solución de Firefly
Aquí entra Adobe con su Firefly Video Model. La idea es clara: entrenar el modelo solo con contenido licenciado. De esta forma, Adobe espera librarse de esos problemas legales que están persiguiendo a otros gigantes de la tecnología. Dicen que Firefly es el primer modelo de vídeo «comercialmente seguro», y que la clave es que todo el material que han usado para entrenarlo está correctamente licenciado.
Vamos, que Adobe ha decidido jugar con las reglas, y no lo digo como crítica, sino más bien como un respiro dentro de un panorama en el que parecía que las empresas de IA solo veían la ley como un obstáculo molesto. Es como si Adobe hubiera dicho: «Vale, queremos IA, pero no queremos líos legales».
Lo interesante aquí es que Adobe no solo intenta diferenciarse en términos de tecnología, sino también en términos de seguridad legal. Y es que las demás empresas, como Google, Meta, y OpenAI, están apostando por acuerdos temporales, comprando contenido aquí y allá cuando se les viene encima la amenaza de una multa. Pero Adobe quiere adelantarse y establecer que su IA, desde el día uno, es «segura para uso comercial».
El contexto de las demandas: Un mar de problemas
Si te soy honesto, me sorprende que hasta ahora no haya habido más empresas tomando el camino de Adobe. Estamos viendo un número enorme de demandas por violación de derechos de autor contra compañías como OpenAI, Stable Diffusion, Midjourney… La lista es larga. Estos casos no son triviales, y la razón detrás de ellos tiene sentido. Imagina que pasaste años creando ilustraciones increíbles solo para descubrir que una IA se entrenó con tu trabajo, y ahora cualquiera puede generar una copia de tu estilo en cuestión de segundos. Pues eso.
Es cierto que algunas empresas ya han empezado a moverse en otra dirección. Google pagó a Reddit para entrenar sus modelos con información de la plataforma. OpenAI llegó a acuerdos con medios como Prisa y Le Monde. Esto se hace para, básicamente, poder tener acceso a contenido de calidad sin el riesgo de terminar en los tribunales. Pero, ¿es suficiente? Yo diría que no, porque la transparencia sigue siendo un problema. Muchas veces no queda claro de dónde vienen los datos con los que se entrenan estos modelos, y esa falta de claridad hace que sea difícil para los usuarios confiar plenamente en la herramienta.
«¿Cómo sabemos si un modelo ha sido entrenado con contenido licenciado o no?» Esa es la pregunta que nadie quiere responder.
Generación de vídeo: El siguiente paso
Si creías que el tema de la generación de imágenes con IA era complicado, ni te cuento lo que se viene con los vídeos. Adobe parece que está intentando liderar aquí con su Firefly Video Model, pero no lo tiene fácil. Las herramientas de generación de vídeo son mucho más complejas, y hay menos margen para el error. Eso sin mencionar los problemas legales, que siguen siendo igual de grandes, si no mayores.
En la competencia no faltan actores. Ahí están Runway con su Gen-3 Alpha, Google, Meta, y otros más. Pero todos estos jugadores tienen algo en común: se han topado con problemas de copyright. Y si las demandas por generación de imágenes ya eran una locura, imagina lo que se viene con los vídeos, donde la posibilidad de infracción se multiplica.
La propuesta de Adobe de utilizar contenido licenciado podría marcar un antes y un después si de verdad resulta ser una solución viable. La realidad es que otros competidores no han sido claros con el origen de su contenido. Así que si Adobe logra demostrar que su enfoque funciona, podría establecer un estándar dentro de la industria que todos tendrían que seguir.
Firefly y la industria creativa: ¿Aliado o amenaza?
Y aquí viene la pregunta del millón: ¿Esta IA es buena o mala para los creadores? Pues, depende a quién le preguntes. Para los creativos que trabajan con Adobe, tener un modelo de IA que se integre directamente con sus herramientas podría ser un game-changer. Imagínate, generar un vídeo básico a partir de texto y luego afinarlo directamente en Premiere Pro. Suena a una buena forma de ahorrar tiempo y, si todo está bien licenciado, sin riesgos legales.
Pero no nos engañemos. No todos están contentos. La campaña reciente de Toys»R»Us usando Sora (de OpenAI) generó un buen puñado de críticas. A muchos les pareció que el anuncio era, básicamente, perezoso. Y aunque Adobe esté intentando hacer las cosas bien, al final es difícil escapar de esa sombra de «¿acaso las IA van a sustituir a los creativos humanos?». Personalmente, no lo creo. Al menos no por ahora. Pero sí creo que se van a convertir en una herramienta que los creativos tendrán que aprender a usar, sí o sí.
Como dijo Dan Goldgeier, «burlarse del anuncio de Toys»R»Us está bien, pero esto es solo el principio». Y tiene razón. Adobe cree que también es solo el principio.
¿Qué diferencia realmente a Adobe?
Entonces, ¿qué hace que Firefly sea diferente de otros modelos de IA generativa? Para empezar, la seguridad comercial. Adobe ha sido bastante claro en este punto: si usas Firefly, no deberías tener problemas con demandas. Esto es importante porque, francamente, la mayoría de los modelos actuales no ofrecen esa garantía. Solo se limitan a decir que están «haciendo esfuerzos» para respetar los derechos de autor, lo cual no suena tan convincente.
Lo segundo es la integración. Adobe está añadiendo Firefly a sus productos ya existentes, como Premiere Pro. Esto es un gran plus para quienes ya usan estas herramientas, ya que el flujo de trabajo no cambia. Simplemente se añaden más opciones. Y, bueno, si de paso puedes evitar problemas legales, mejor que mejor.
Disponibilidad limitada: Paso a paso
Ahora, antes de que pienses que puedes ir a probarlo ya mismo, te digo que Firefly Video Model está disponible solo en beta y para algunos usuarios que se apuntaron a una lista de espera. Es un lanzamiento escalonado, y tiene sentido. Esto no solo permite a Adobe mejorar la herramienta con feedback real, sino también asegurarse de que todo está funcionando sin sobresaltos antes de que se masifique.
Y ojo, que esto es algo que todas las empresas de tecnología deberían hacer. Lamentablemente, muchas se apresuran en lanzar al mercado para ser las primeras, y luego vienen los problemas. Por lo menos aquí Adobe está siendo cauteloso, lo cual es un respiro viendo cómo a veces se manejan estas cosas.
¿Todo solucionado? No tan rápido
Claro, lo de usar solo contenido licenciado suena bien, pero esto no elimina todos los problemas. La regulación sigue siendo confusa. Estamos viendo a gobiernos que apenas empiezan a reaccionar a esta tecnología. En Europa, por ejemplo, ya hay presión para que las empresas ofrezcan mecanismos que permitan a los usuarios optar por no ser usados en entrenamientos de IA. Meta e Instagram ya están implementando estas opciones, aunque la transparencia sigue siendo una gran incógnita.
Al final del día, lo que hace Adobe es un paso en la dirección correcta, pero no la solución definitiva. Quedan un montón de preguntas abiertas. ¿Podrán otras empresas seguir este modelo? ¿Estamos hablando de un estándar real o solo de una excepción a la regla? Solo el tiempo lo dirá.
Resumen Rápido
- Adobe Firefly Video Model se presenta como la primera IA generativa «comercialmente segura» para crear vídeos, usando contenido licenciado.
- La IA generativa enfrenta problemas serios de derechos de autor, con muchas demandas por entrenar sus modelos con contenido sin permiso.
- Adobe asegura que su enfoque es diferente, apostando por contenido con licencia para evitar conflictos legales, a diferencia de otras empresas como Google y OpenAI que han optado por acuerdos temporales y soluciones puntuales sin un compromiso tan claro desde el principio.
- Competencia como OpenAI, Google y Meta ya han enfrentado problemas legales y han firmado acuerdos para entrenar sus modelos, pero no son claros con el uso del contenido.
- La disponibilidad de Firefly está limitada de momento, ya que Adobe está realizando un lanzamiento escalonado para evitar problemas iniciales.
- Aún hay muchas incógnitas sobre la regulación y el futuro de las IAs generativas, incluso con estos intentos de asegurar licencias.
Preguntas Frecuentes
- ¿Qué es Adobe Firefly Video Model?
- Es un modelo de IA para generar vídeos, que se presenta como la primera herramienta «comercialmente segura», entrenada con contenido licenciado.
- ¿Por qué es importante el uso de contenido licenciado en la IA?
- Porque evita problemas legales relacionados con el uso de obras protegidas por derechos de autor sin permiso de los creadores originales.
- ¿Qué diferencia a Firefly de otros modelos de IA generativa?
- Firefly se entrenó exclusivamente con contenido licenciado, lo que promete ser más seguro legalmente que otros modelos que usan contenido de fuentes no autorizadas.
- ¿Qué otros competidores tiene Adobe en la generación de vídeo con IA?
- Competidores como OpenAI, Runway, Google y Meta también están desarrollando modelos de generación de vídeo, pero no han sido tan transparentes con el uso de contenido licenciado.
- ¿Cuándo estará disponible Firefly para el público en general?
- De momento, está en fase beta y solo accesible para algunos usuarios que se registraron previamente en una lista de espera.
- ¿La IA generativa reemplazará a los creadores de contenido?
- No parece que vaya a reemplazarlos, al menos por ahora. Más bien, será una herramienta que los creativos deberán aprender a usar para optimizar su trabajo.