Di chi è la linea comunque, GitHub? Alcuni suggerimenti per gli sviluppatori

Di chi è la linea comunque, GitHub? Alcuni suggerimenti per gli sviluppatori

Whose line is it anyway, GitHub? Some tips for devs PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Opinione Fonte aperta. È aperto. Puoi guardare. Principalmente, puoi usare. C'è un indizio nel nome. Non così in fretta, rivendica un'azione collettiva intentata contro Microsoft, OpenAI e GitHub. Copilot, un bot di suggerimento addestrato all'interno dell'intelligenza artificiale e open source, funziona offrendo linee di codice ai programmatori e questo, sostiene l'azione collettiva, infrange le regole ed è subdolo nel tentativo di nasconderlo. Un giudice ha stabilito che alcune delle denunce meritano la loro giornata in tribunale. Caro signore, non un'altra battaglia sul copyright.

La tecnologia può sembrare molto strana ai giudici. Supponi di acquistare legalmente un ebook. Come lo ottieni? Router e server di memorizzazione nella cache fanno copie del libro non appena viene consegnato, ma non hanno pagato un centesimo. I proprietari dell'infrastruttura Internet infrangono il copyright miliardi di volte al giorno? Potresti pensare che sia una domanda stupida, ma ha infastidito abbastanza la Corte Suprema del Regno Unito da andare in Europa a chiedere "Questo Internet è effettivamente legale?” Non essere così dannatamente sciocco, fu la risposta. Ci manca l'Europa.

Resta da vedere quante delle affermazioni contro Microsoft, Copilot e il suggeritore di codice di OpenAI cadranno nella sanguinosa scatola degli stupidi. Nessuno prevedeva che l'IA ingerisse database globali di codice open source quando furono scritte le regole. Inoltre, nessuno prevedeva che i motori di ricerca effettuassero l'ingestione, l'analisi e la presentazione all'ingrosso di tutti i contenuti. Ciò ha certamente i suoi problemi, ma il consenso è che sia troppo utile e non abbastanza dannoso per essere messo fuori legge. Copilot e altri sistemi di apprendimento automatico che si nutrono di contenuti Internet sono molto simili a questo riguardo ai motori di ricerca. Quindi la domanda è: il risultato non è abbastanza utile o troppo dannoso per essere accettato? Dov'è l'equilibrio degli interessi?

Ci sono modi utili per affrontare i problemi e coinvolgono – la direzione aziendale distoglie lo sguardo ora – l'etica. Sì, davvero, quelle chiacchiere alla moda sull'intelligenza artificiale etica offrono una via concreta che funzionerà molto meglio delle azioni legali.

Deformata com'è da particolari interessi, il cuore della legge sulla proprietà intellettuale è che i ragionevoli desideri del creatore debbano essere rispettati. Se il software è open source, il creatore desidera ragionevolmente che le persone siano in grado di leggerlo e utilizzarlo. Qualcosa che incoraggia questo non sembra il peggior peccato del mondo.

Forse è il modo in cui lo fa, presentando i suggerimenti del codice fuori contesto. Ci sono molte licenze open source, dopotutto, e alcune potrebbero contenere condizioni che il nostro felice Copilot taglia e incolla dovrebbe conoscere. Bene, supponendo che Copilot possa riconoscere quando suggerisce il codice di qualcun altro, non è irragionevole che possa segnalare le condizioni di licenza in cui è offerto. Ciò impone al programmatore l'onere di conformarsi, il che è più etico che offrire la tentazione nascondendo le conseguenze. Potrebbe persino migliorare il tasso di successo per aver seguito le regole open source.

E se il programmatore originale non volesse davvero che le sue cose vengano schiacciate nelle viscere di Copilot? Il mondo dei motori di ricerca ha affrontato questo problema con l'invenzione di robots.txt. Metti un file con quel nome nella tua directory root web e stai mettendo un segno "No Entry" per i web crawler. Le cose sono un po' più avanzate in questi giorni, quindi inserire quel tipo di funzione nel tessuto di GitHub con qualsiasi tipo di messa a punto esprima al meglio l'intento del creatore sarebbe bello. In ogni caso, dire ai fornitori di contenuti: “Non vuoi che le tue cose compaiano nei nostri risultati di ricerca? Bene." ha avuto la tendenza a focalizzare le menti sui modi per conviverci. Dare alle persone scelte mentre si spiegano le conseguenze? Carino.

Anche se dare alle persone il diritto di rimuovere il proprio codice da Copilot e simili si traduce nella scomparsa di un sacco di cose buone, non è la fine del mondo. C'è il “principio della camera bianca”, che ha infranto la posizione dominante di IBM negli anni '1980, accelerando il mercato come un matto. Questo è qualcosa da cui l'apprendimento automatico potrebbe imparare molto.

Il PC IBM originale era quasi interamente open source. IBM ha pubblicato un manuale tecnico con schemi circuitali completi, tutti utilizzando chip standard collegati tra loro in modi standard che i produttori di chip hanno regalato gratuitamente. Progettare un clone di PC IBM funzionalmente equivalente (ma senza copyright) era qualcosa che migliaia di ingegneri elettronici potevano fare, e centinaia l'hanno fatto.

La mina legale nella scatola beige era il BIOS, Basic INput-OUtput System, una porzione relativamente piccola di software permanente che forniva un set standard di servizi hardware ai sistemi operativi e alle applicazioni tramite interruzioni, quella che oggi verrebbe chiamata API. Se hai appena copiato quel codice per il tuo clone, IBM ti farebbe battere i diritti. Potresti riscrivere il codice, ma IBM potrebbe poi coinvolgerti in cause legali facendoti dimostrare che non ne hai copiato nulla. Anche se vincessi, il ritardo e la spesa ti farebbero affondare.

Indica la camera bianca. I clonatori hanno assunto programmatori che non avevano mai letto una riga del BIOS di IBM e hanno proibito loro di farlo. A questi programmatori è stata fornita l'API, che non era protetta da copyright, e gli è stato detto di scrivere in base a quella specifica. Con le attestazioni legali i clonatori erano felici di giurare in tribunale, valeva il principio che non si può copiare ciò che non si è visto – e l'ultimo tassello del puzzle nell'originale Clone Wars era a posto. Il fatto che le API forniscano un antidoto così potente al copyright ha portato molti a provare a cambiare il loro status legale, più di recente Google contro Oracle. Ciò è finito alla Corte Suprema degli Stati Uniti dove, come tutti gli altri, ha fallito.

Quindi, prendi due sistemi automatizzati, uno dedicato alla ricerca e all'isolamento delle interfacce all'interno del codice e uno dedicato all'applicazione delle regole per generare il codice che fornisce tali interfacce. Non c'è trasferimento di righe di codice attraverso il traferro virtuale. Il test automatizzato del codice originale rispetto all'IA aumenterebbe la qualità. En passant, nascerebbe un ottimo set di strumenti per il refactoring, a vantaggio di tutti. Suona etico, giusto?

Lì ce l'abbiamo. Se ci sono problemi reali con ciò che sta facendo Copilot, allora ci sono diversi modi per evitarli preservando l'utilità e creando nuovi vantaggi. Giocare secondo le regole migliorando le cose? Questa è una buona linea da prendere. ®

Timestamp:

Di più da Il registro