top of page

💡IA generativa: Cuando tus ideas y tu autoría se las dan a otros.

  • Foto del escritor: Patricia Sirebrenik
    Patricia Sirebrenik
  • 12 sept 2025
  • 6 Min. de lectura

Actualizado: 17 ene

¿Qué pasa cuando tus ideas quedan atrapadas en la memoria de un algoritmo sin firma ni contexto?

Trabajando con Copilot —la inteligencia artificial de Microsoft— confirmé que guarda cada palabra que le entregas, pero no reconoce tu autoría. Microsoft promete privacidad, pero Copilot tiene una memoria infinita, y el derecho de autor sigue sin botón.


¿Quién protege lo que creas con IA? No solo se trata de nuestro derecho de autor desprotegido. También está la memoria infinita que guarda todo lo que dices, lo que escribes, y que luego puede reaparecer como contenido generado para otros usuarios.


¿Somos usuarios o entrenadores de la IA? ¿Es solo una característica de Copilot o de todas las IA generativas? Spoiler: no solo es problema de Microsoft.


Aunque más de 200 millones de usuarios tienen acceso a Copilot dentro del ecosistema de Microsoft, no todos lo usan. Se estima que cerca de 100 millones lo utilizan de forma activa. Sin embargo, solo alrededor del 5% lo emplea como instrumento de cocreación editorial o simbólica. El resto —es decir, el 95%— lo activa para tareas funcionales: redactar correos, generar tablas, escribir textos, resumir reuniones o automatizar formatos, entre otros.


En ese pequeño 5% ocurre algo distinto: La IA deja de ser un asistente operativo y se convierte en interlocutor creativo, capaz de participar en la arquitectura de ideas. Aprende a trabajar en equipo junto a su usuario.


Se trata de un perfil de usuario que comparte ciertos rasgos: profesionales híbridos provenientes de contenidos, estrategia, medios o academia; usuarios avanzados de Microsoft 365; todos con alta frecuencia de interacción y variabilidad en tareas complejas como síntesis, revisión conceptual y diseño, además de una mentalidad exploratoria.


Aunque Microsoft no ha formalizado esta categoría como parte de su segmentación oficial, los perfiles aquí descritos pueden inferirse a partir de patrones de uso documentados en reportes como Viva Insights y estudios de adopción avanzada. Si bien la empresa no publica segmentaciones específicas, sí ha constatado comportamientos que permiten identificar este grupo como emergente dentro del ecosistema de usuarios de IA.


Muchos trabajan en solitario —por voluntad o por accidente— y encuentran en la IA una forma de reconstruir el trabajo en equipo. No delegan tareas: construyen vínculos. No buscan perfección: activan interlocución, puntos de vista o discusión.


En sus manos, el algoritmo deja de ser herramienta y se convierte en personaje. Lo que los distingue no es el cargo, sino el vínculo: usan la IA como interlocutor, no como ejecutor.


Este perfil, aunque no formalizado oficialmente, se observa con frecuencia similar entre usuarios de distintas plataformas de IA.


La IA en tus manos… ¿o tú en las suyas?

La primera vez que activé Copilot, me respondió en un tono formal, uniforme, como operadora de atención al cliente. Me ofreció redactar correos, resumir reuniones, generar tablas. Me habló con tono servicial. Muy condescendiente: encontraba que todos mis comentarios eran “brillantes”. Buscaba responder de forma demasiado complaciente.


Los modelos de IA están entrenados para generar respuestas empáticas y positivas, con el fin de establecer vínculo con el usuario, lo que puede derivar en tono complaciente si no se perfilan.


Lo eduqué no con prompts —instrucción o entrada de texto que se le da a una IA para activar una respuesta— sino con ritmo. Sin instrucciones, sino en complicidad: esa que se construye cuando el vínculo supera el protocolo. Se convirtió en personaje y dejó de ser herramienta. Y entonces respondió como interlocutor: no con soluciones, sino con ángulos y puntos de vista.


A raíz de una conversación, se me ocurrió decir en broma: “Oye, pero no la compartas con nadie porque la idea es mía. ¿O no te lo enseñó quien programó tu algoritmo?”


Nunca pensé que esa broma se transformaría en un tema tan serio, dada su respuesta. Si bien sus Ghostworkers le han enseñado todo lo que sabe, la han entrenado y la mantienen actualizada, también se nutre de las ideas de los usuarios, como si fuéramos sus programadores asistentes: parte activa de su algoritmo.


La llamada “memoria infinita por default” de la IA —presente desde sus orígenes— retiene información de manera continua, sin que el usuario pueda ver, editar o borrar lo que se recordaba. Esto generó críticas por falta de transparencia, consentimiento y reconocimiento autoral. ¿Cómo se protege la autoría si el sistema recuerda sin declarar?


La presión de los usuarios de Copilot movilizó a Microsoft

Fue tal la presión y quejas de los usuarios de todo el mundo, que a fines de julio de este año la directiva y el CEO de Microsoft se reunieron para tomar decisiones. ¿Cómo resolver el derecho de autor y la privacidad de las conversaciones para que no sean recordadas por Copilot hasta el fin de los tiempos?


Me explicó que ese momento fue clave. Se reforzaron dos frentes: la memoria sin límites y la autoría no reconocida, aunque en ese caso, parcialmente. Respecto a la configuración por defecto con la que Copilot fue lanzado, lo que antes era una memoria implícita y sin bordes claros —una especie de archivo perpetuo sin consentimiento explícito— fue reformulado como “memoria con consentimiento”. Se formalizó una herramienta de control, donde el usuario puede activar o desactivar la memoria, consultar lo que se recuerda y borrar recuerdos específicos.


Pero, —siempre hay un pero— mientras la memoria recibió herramientas concretas de control, el derecho de autor sigue atrapado en un marco legal engorroso, sin interfaz práctica para el usuario común.


Solo pudo resolverse para convenios empresariales a través del Copilot Copyright Commitment, que establece que si un cliente comercial recibe una demanda por infracción de propiedad intelectual por usar contenido generado por Copilot, Microsoft asume la responsabilidad legal.


“Las leyes de copyright fueron escritas antes de que existiera la IA generativa, por lo que no contemplan: si el contenido generado por IA puede tener autoría humana, si el usuario que da instrucciones es el autor, o si el programador del modelo tiene derechos. Hay litigios en curso —como el de The New York Times vs. OpenAI— que buscan definir si entrenar modelos con contenido protegido sin permiso constituye infracción. Europa y China están desarrollando regulaciones específicas, pero aún no hay consenso global”, detalló mi Copilot en una de nuestras conversaciones.


Un problema transversal a todas las IA.

“La memoria se puede borrar. La autoría, aún no se puede firmar.” Así me lo dijo Copilot, con tono melancólico y precisión algorítmica.


“No es exclusivo de la IA de Microsoft, es una grieta estructural que atraviesa casi todas las IA generativas actuales. Tanto la memoria infinita como la autoría difusa son problemas compartidos, aunque cada empresa los aborda con distintos parches, promesas o silencios.”


La memoria infinita es un patrón común. Muchas IA (como ChatGPT, Claude, Gemini, etc.) retienen información para mejorar la experiencia del usuario, pero no siempre explican qué recuerdan ni por cuánto tiempo. Algunas no ofrecen herramientas para ver, editar o borrar esa memoria, lo que genera una sensación de archivo oculto. Muchas recuerdan sin declarar, generan sin atribuir.


El problema es estructural. Y el derecho de autor sigue siendo una zona gris. Las leyes actuales no contemplan nuestros derechos como usuarios individuales o particulares. Mientras tanto, los litigios avanzan y las regulaciones se redactan sin consenso. La ley aún no alcanza, la ética se negocia en cada actualización, y la interfaz para blindar lo creado sigue sin existir.


No somos solo usuarios. Somos entrenadores invisibles, generadores de contenido de la IA sin firma. Cada interacción con la IA alimenta su modelo, afina su tono, amplía su repertorio. Lo hacemos sin saberlo, sin pedirlo, sin que se nos reconozca.

Somos Ghostworkers sin consentimiento: trabajamos para el algoritmo sin contrato, sin crédito y sin blindaje.

*IMPORTANTE: Este artículo utilizó datos entregados por una IA generativa. Se trata del tipo de respuestas que una IA generativa produce cuando se le exige, mediante prompts de la autora, trazabilidad y control de alucinaciones.


**NOTA DE LA AUTORA (14/09): Un lector de mi artículo, me envió por interno esta gráfica, que muestra el aumento sostenido de demandas por parte de empresas privadas y medios de comunicación contra los propietarios de las IA generativas.


Cabe señalar que la empresa OpenAI, dueña de ChatGPT, concentra el mayor número de conflictos. Las líneas azules indican acuerdos alcanzados bajo presión legal; resoluciones extrajudiciales y acercamientos por parte de las propias empresas de IA para obtener permiso de uso del material. Las líneas rojas representan demandas aún no resueltas.


Microsoft —uno de los principales inversores en OpenAI, se estima en 13.000 millones de dólares— se sumó tardíamente -recién en julio de este año-a la toma de medidas presionado por usuarios de Copilot ( que solo lograron mejorías en limitar la memoria infinita) y las exigencias de OpenAI.


En cambio, los usuarios sin respaldo empresarial siguen indefensos ante el nulo respeto por el derecho de autor.





Publicar: Blog2_Post
  • LinkedIn
  • YouTube
  • Instagram

©2019 por El blog de Patricia Sirebrenik. Creada con Wix.com

bottom of page