LinkedIn deja claro que tú eres responsable del contenido generado por su IA si decides compartirlo. Nada raro, Microsoft ya lo había hecho con sus propios productos. Pero lo que me sorprende (y no para bien) es cómo LinkedIn parece lavarse las manos si su asistente de inteligencia artificial produce alguna barbaridad.
Y lo peor: te dicen que el contenido puede ser inexacto, incompleto o simplemente engañoso. Entonces, pregunto yo, ¿para qué lo ofrecen así sin más? Vamos a escarbar un poquito en esto porque hay tela para cortar.
Lo Que LinkedIn Quiere que Sepas (Pero No con Bombos y Platillos)
El 20 de noviembre de 2024, LinkedIn va a actualizar su acuerdo de usuario. Esto significa que cualquier contenido generado automáticamente por sus herramientas de IA será tu responsabilidad directa si decides compartirlo, incluso si contiene errores o información engañosa.
Eso implica que, si usas alguna de las funciones que automatizan la creación de contenido, tipo «Asistente IA para escribir una publicación», la responsabilidad de lo que compartas es enteramente tuya.

No estamos hablando de sugerencias para cambiar la foto de perfil; hablamos de contenido que podría ser visto por miles, y que tiene el potencial de ser falso o engañoso.
«El contenido generado por IA podría ser inexacto, incompleto, retrasado o incluso no ser adecuado para lo que necesitas.»
Esto es lo que dice LinkedIn, en resumen. Y claro, también agregan que debes revisar y editar antes de compartir cualquier cosa que salga de la inteligencia artificial. A ver, que esto me parece lógico, pero suena también un poco irónico, ¿no? O sea, te doy una herramienta, pero la responsabilidad de que no se mande una metida de pata es tuya.
El Doble Estándar de las Plataformas: Políticas Anti-fake Versus Contenido Generado por IA
No nos engañemos. LinkedIn siempre ha tenido una postura bastante estricta contra las noticias falsas, el contenido inauténtico y las mentiras descaradas, como cuando introdujeron su política de autenticidad en 2020 que prohibía explícitamente la diseminación de información falsa en perfiles y publicaciones. Y me parece perfecto. Pero entonces, ¿cómo es que la misma plataforma puede producir contenido con su IA que tal vez no pase esas pruebas de autenticidad? Me parece algo irónico, como si le dijeran a los usuarios «juega con cuidado, pero con una pistola que puede dispararse sola».
Y sí, las consecuencias no son para nada livianas. Si compartes algo que no va de acuerdo con sus políticas, podrías terminar con tu cuenta suspendida o, peor aún, completamente cerrada. O sea, te invitan a usar su IA, pero si fallas, la culpa es tuya. ¿No te suena algo injusto? A mí sí.
Opt-Out y la Captura de Datos: ¿Te Preguntaron?

Lo último en esta novela es que LinkedIn empezó a usar contenido generado por usuarios para entrenar sus modelos de IA. Y lo hicieron sin preguntar si estabas de acuerdo.
Eso fue lo que más molestó a mucha gente. Fue casi como un «voy a agarrar esto que es tuyo para mejorar mi producto, y si no te gusta, bueno, aquí tienes un botón para salirte». Ni siquiera en todos los países.
En Estados Unidos, tienes que opt-out, es decir, hacer el esfuerzo extra para que no entrenen con lo tuyo.
En Europa, claro, la historia es distinta. Con la presión de las normativas del RGPD (Reglamento General de Protección de Datos, una ley que protege la privacidad de los usuarios) y otras leyes, LinkedIn tuvo que frenar esto en la Unión Europea, el Reino Unido y Suiza.
Ahí sí se dieron cuenta de que no podían seguir adelante sin tener problemas legales. Pero, para el resto del mundo, sigue el «si no quieres que usemos tus datos, opt-out tú mismo».
¿Qué Puedes Hacer Si Usas la IA de LinkedIn?
Ok, pongámonos prácticos. Si te interesa seguir usando la IA de LinkedIn (porque, seamos sinceros, puede ser bastante útil para ciertas cosas), aquí van algunos consejos:
- Revisa, revisa, revisa: Suena redundante, pero es la realidad. Cada vez que el asistente de IA te suelte un texto, tómate el tiempo de revisarlo. ¿Suena bien? ¿Es preciso? ¿Podría causar confusión?
- Edita antes de compartir: No publiques tal cual lo que te generó la IA. Personalízalo. Hazlo tuyo, y asegúrate de que tenga el tono adecuado y sea lo suficientemente claro.
- Ten cuidado con la información: Si hay datos específicos, échales un ojo extra. ¿Están actualizados? ¿De dónde provienen? No quieres ser el responsable de compartir un dato que resulta ser erróneo.
- Conoce las políticas de LinkedIn: Sí, son aburridas, pero importa saber cómo funcionan. LinkedIn tiene sus normas, y el no conocerlas no te exime de sufrir las consecuencias si haces algo mal.
- Opt-out si te preocupa tu privacidad: Si estás en un país donde LinkedIn aún entrena sus modelos con tu contenido, considera optar por salir de eso. Es un clic que podría valer la pena si valoras tu privacidad.
La Realidad de la IA Generativa en Redes Sociales
Lo que pasa es que las plataformas quieren ofrecer herramientas de IA porque están de moda. Todos quieren su dosis de inteligencia artificial para no quedarse atrás. Pero la verdad es que la responsabilidad de lo que se genera con estas herramientas la quieren pasar al usuario. Y eso tiene sentido si lo piensas, pero igual sigue siendo frustrante.
Imagínate esto: entras a un restaurante, el chef te da los ingredientes, pero luego tú eres responsable si la comida sabe mal. Es como si fueras a un taller de coches, te dieran las piezas y te dijeran ‘arma tú el motor, pero si algo falla, es tu culpa’. Pues algo así es.
La IA no es más que una herramienta, pero LinkedIn no está vendiendo una herramienta como un martillo que sabes cómo usar. Está vendiendo algo que se siente mágico, que promete ayudarte en tus conexiones, pero que puede generar información equivocada sin previo aviso. Y eso no se lo dicen a los usuarios de manera clara.
Resumen Rápido
- LinkedIn te hace responsable del contenido que generas usando su IA, incluso si este resulta ser erróneo.
- La nueva actualización de la política de uso entra en vigor el 20 de noviembre de 2024.
- La plataforma también usa tu contenido para entrenar sus modelos de IA, a menos que te excluyas explícitamente (en la UE y otros países, han tenido que frenarlo).
- Revisa y edita siempre el contenido que genera la IA antes de compartirlo.
- LinkedIn podría suspender o cerrar tu cuenta si compartes contenido que viole sus políticas, incluso si fue generado por su propia IA.
- La IA de LinkedIn es una herramienta útil, pero ten cuidado: la responsabilidad final es tuya.
Preguntas Frecuentes
- ¿Qué significa que sea responsable del contenido generado por la IA de LinkedIn?
Significa que si compartes algo generado por su IA y es incorrecto o engañoso, serás tú quien deba asumir las consecuencias, no la plataforma. - ¿Puedo evitar que LinkedIn use mi contenido para entrenar su IA?
Sí, en algunos países puedes optar por salir de este proceso mediante la configuración de privacidad. En otros lugares, como Estados Unidos, debes hacerlo manualmente. - ¿Cómo puedo saber si el contenido generado por la IA es exacto?
No hay garantía. Debes revisar y editar cuidadosamente cada pieza antes de compartirla, especialmente si incluye datos específicos. - ¿Qué pasa si comparto información incorrecta de la IA?
Podrías enfrentar sanciones por parte de LinkedIn, incluyendo la suspensión o eliminación de tu cuenta. - ¿Por qué LinkedIn usa mi contenido para entrenar su IA?
LinkedIn busca mejorar sus modelos para generar mejor contenido. Sin embargo, hacerlo sin pedir permiso explícito generó muchas críticas. - ¿Es seguro usar la IA para generar contenido en LinkedIn?
Depende de cómo lo uses. Si revisas y verificas todo antes de compartir, podría ser seguro. Pero si lo compartes tal cual, corres riesgos.
Y bueno, esto es lo que hay. LinkedIn está empujando duro por la IA, pero te deja a ti las riendas de la responsabilidad. Entonces, ¿te conviene? Eso ya depende de cómo quieras jugar el juego.