El chatbot orientado a la programación ha expandido su disponibilidad en la plataforma. Sin embargo, el uso sin autorización previa de código propietario para su entrenamiento es polémico.

Microsoft ha expandido el alcance del servicio Copilot para los usuarios de GitHub. A principios de 2023 se lanzó una versión para las organizaciones, ahora la disponibilidad es general. La herramienta aparece en los entornos de desarrollo de la compañía, Visual Studio y Visual Studio Code. El servicio es pago, pero está disponible de forma gratuita para profesores y estudiantes verificados así como para quienes mantienen ciertos proyectos de código abierto.

La naturaleza de las herramienta

Copilot es una herramienta de generación de texto enfocada en la programación. Está basada en la tecnología de ChatGPT, que fue desarrollada por OpenAI. Su principal ventaja es que los desarrolladores pueden establecer consignas en lenguaje natural y obtener la asistencia técnica en forma de consejos, diagnósticos de vulnerabilidades o incluso largas secciones de código.

Como ocurre con otros modelos de lenguaje estas capacidades se adquirieron gracias al entrenamiento. El entrenamiento se realizó con código escrito por seres humanos. Y aquí llegamos al punto de la polémica.

Uso justo quieras o no…

Una buena parte del código empleado en el entrenamiento está protegido por el derecho de copia. GitHub argumenta que su empleo entra en la categoría de uso justo. Muchos desarrolladores no está de acuerdo y han iniciado acciones legales.

Curiosamente no existe una opción especial para señalar que el código subido a GitHub quede afuera de sus programas de entrenamiento. En cambio la compañía sugiere que los repositorios sean marcados como privados. Esto sin embargo supone un problema, dado que la exposición del código al público supone una gran cantidad de beneficios para los desarrolladores.

Copilot es todavía una herramienta en desarrollo con importantes deficiencias. El código producido con su asistencia ha sido hasta el momento menos seguro. En parte esto se debe a que los desarrolladores adoptan una actitud más descuidada, pero también porque las IA emplean código desactualizado. Por lo dicho cualquier limitación que adopten los desarrolladores de forma masiva podría hacer que la herramienta sea aún menos confiable.