Nous avons déjà mentionné les problèmes relatifs à la pertinence des propositions ou au caractère perfectible de la syntaxe, mais certaines personnes alertent également sur la marge d’erreur fondamentale des codes qui sont actuellement créés à l’aide de GitHub Copilot ou qui le seront par la suite.
Comme la base sur laquelle l’IA acquiert ses connaissances est souvent erronée ou, à tout le moins, non vérifiée, le résultat final demeure trop souvent incertain. S’il est précisé que toutes les données issues de l’IA doivent être vérifiées, les développeurs n’ont pour le moment que peu de chances d’en retirer un réel avantage pour leur travail quotidien sur le long terme. Les premiers tests ont souvent été synonymes de mauvais résultats pour le code de GitHub Copilot.
Certains développeurs redoutent également que l’utilisation de GitHub Copilot constitue une violation de droits d’auteur si l’IA se contente de reprendre des blocs de code entiers. Il existe différentes règles relatives à l’utilisation équitable, mais la place des activités d’apprentissage de l’IA y est pour le moins controversée. Ce sujet est d’autant plus sensible que GitHub Copilot pourrait, à terme, être utilisé à des fins commerciales. L’entreprise garantit qu’à ce jour, peu de codes sources ont déjà été repris sans modification, que ce soit entièrement ou partiellement. Plus l’apprentissage de l’IA s’améliorera, et plus ce chiffre devrait continuer à baisser.