El creador del Linux para M1 carga contra GitHub Copilot por usar fragmentos protegidos por copyright en sus sugerencias de código

El creador del Linux para M1 carga contra GitHub Copilot por usar fragmentos protegidos por copyright en sus sugerencias de código
1 comentario Facebook Twitter Flipboard E-mail

Hace ahora un año, GitHub/Microsoft presentó al mundo una herramienta capaz de autocompletar y generar código gracias a la IA, a la que bautizó como GitHub Copilot y que, hace unos días, dejó de estar en fase gratuita de pruebas para ser lanzada comercialmente. Pero, más allá de su modelo comercial, Copilot también ha dado mucho que hablar en este último año por razones jurídicas

…pues al generar nuevo código basándose en aquel código previamente creado por personas con el que se le había 'alimentado' previamente, aumentaban exponencialmente las probabilidades de que se repitiesen fragmentos de código relevantes de trabajos ajenos, provocando así que numerosos proyectos de software se vieran expuestos a problemas de cumplimiento de licencias.

El creador del 'Linux para M1' opina al respecto

Hector Martin, el responsable del desarrollo de Asahi Linux (una distribución GNU/Linux instalable en los Mac M1), ha expresado en un hilo de Twitter su opinión sobre la relación entre redes neuronales, copyright y código fuente.

"Las redes neuronales, ya sean artificiales o biológicas, no borran los derechos de autor. Si leo algún código fuente y escribo un código fuente idéntico o muy similar, es un trabajo derivado del original. Lo mismo ocurre con GitHub Copilot".

Martin, que para evitar violaciones involuntarias del copyright prefiere vetar las colaboraciones en Asahi a cualquiera que haya tenido acceso al código de Apple, afirma que su postura "no debería ser polémica". Que requiere "mucha confianza" aceptar código que incumpla esa norma.

"Microsoft le pide que confíe en una red neuronal que no puede pensar, no tiene ninguna noción innata de los derechos de autor, no puede participar en la verdadera creatividad y no tiene ninguna responsabilidad moral con sus usuarios. Una red neuronal que ellos mismos no entienden.

Gracias, no, gracias".

Martin equipara el uso de Copilot con el de una ruleta rusa que combina aleatoriamente código preexistente, "protegido por derechos de autor y bajo licencias heterogéneas". Microsoft sólo podría haber impedido que Copilot 'escupiera' código ya licenciado de dos maneras:

  • Enseñado a su IA a comprender y aplicar la normativa de derechos de autor… y teniendo en la mano números concretos que muestren una tasa de éxito muy alta detectando (y rechazando) fragmentos de código protegidos por copyright. "'Confía en nosotros' no es suficiente".

  • Desarrollando redes neuronales 'mágicas' que pudieran garantizar que sólo generan obra original "gracias a algún tipo de modelo incrustado que destila la 'funcionalidad' del trabajo original sin los elementos protegidos por copyright; me encantaría ver cómo logran eso".

"Si se puede encontrar un solo ejemplo de que Copilot haya generado código protegido por copyright en cualquier proporción relevante, en mi opinión, eso es evidencia suficiente de que Copilot, como servicio y por la forma en que Microsoft lo creó, constituye una violación masiva de derechos de autor".

Y Martin se encarga de enlazar él mismo un caso en el que Copilot ha generado, efectivamente, líneas copiadas de un original que no permite el uso comercial de su código: bien lo sabe el autor del tuit, porque el código original lo tecleó él mismo.

Imagen | Basada en original de Christ Waits

Comentarios cerrados
Inicio