Noul instrument GitHub folosește AI pentru a crea cod. Unii dezvoltatori sunt furiosi

Unii dezvoltatori sunt frustrați de modul în care a fost construit instrumentul de economisire a timpului pentru programatori. Alții sunt încântați de potențialul său.

Noul instrument GitHub folosește AI pentru a crea cod. Unii dezvoltatori sunt furiosi

Un instrument de programare AI care face ca eșantionul de cod să fie mai ușor de găsit s-ar putea să sune ca o mână de Dumnezeu pentru dezvoltatorii de software, dar recepția pentru noul Microsoft Instrumentul GitHub Copilot a fost un pic mai rece.

Copilot s-a lansat săptămâna trecută într-o previzualizare tehnică exclusivă pentru invitații, promițând că va economisi timp, răspunzând la codul utilizatorilor cu propriile sugestii inteligente. Aceste sugestii se bazează pe miliarde de linii de cod public pe care utilizatorii le-au contribuit public la GitHub, utilizând un sistem AI numit Codex de la compania de cercetare OpenAI.

diferența dintre introvertiți și extrovertiți

În timp ce Copilot ar putea fi un economisitor major de timp unii au salutat ca. magic, a fost întâmpinat cu scepticism și de alți dezvoltatori, care își fac griji că instrumentul ar putea ocoli cerințele de licențiere pentru codul sursă deschisă și ar putea încălca drepturile de autor ale utilizatorilor individuali.



Cum funcționează Copilot

GitHub descrie Copilot ca echivalentul AI al programare pereche , în care doi dezvoltatori lucrează împreună la un singur computer. Ideea este că un dezvoltator poate aduce idei noi sau poate detecta probleme pe care celălalt dezvoltator le-ar fi pierdut, chiar dacă este nevoie de mai multe ore de persoană pentru a face acest lucru.

În practică, însă, Copilot este mai mult un economisitor de timp utilitar, integrând resursele pe care altfel ar putea să le aibă dezvoltatorii pentru a căuta în altă parte. Pe măsură ce utilizatorii tastează Copilot, instrumentul va sugera fragmente de cod pe care să le adăugați făcând clic pe un buton. În acest fel, nu trebuie să petreacă timp căutând prin documentația API sau căutând exemplul de cod pe site-uri precum StackOverflow. (Un al doilea dezvoltator probabil nu ar fi memorat nici aceste exemple.)

La fel ca în majoritatea instrumentelor AI, GitHub dorește, de asemenea, ca Copilot să devină mai inteligent în timp, pe baza datelor pe care le colectează de la utilizatori. Rapoartele CNBC că, atunci când utilizatorii acceptă sau resping sugestiile Copilot, modelul său de învățare automată va folosi acel feedback pentru a îmbunătăți sugestiile viitoare, așa că poate instrumentul va deveni mai asemănător cu omul pe măsură ce învață.

Recunoașterea

La scurt timp după lansarea Copilot, unii dezvoltatori au început să tragă alarme cu privire la utilizarea codului public pentru a instrui AI-ul instrumentului.

O preocupare este că, dacă Copilot reproduce bucăți suficient de mari de cod existent, ar putea încalcă drepturile de autor sau spală efectiv cod open-source în utilizări comerciale fără licențierea corespunzătoare. Instrumentul poate, de asemenea scuipă detalii personale pe care dezvoltatorii l-au postat public și într-un caz a reprodus cod larg citat din jocul PC din 1999 Quake III Arena —Inclusiv comentariul încărcat de exploziv al dezvoltatorului John Carmack.

Cole Garry, un purtător de cuvânt al Github, a refuzat să comenteze aceste aspecte și a indicat doar existența companiei Întrebări frecvente pe pagina web a Copilot , care recunoaște că instrumentul poate produce fragmente de cod text din datele sale de instruire. Acest lucru se întâmplă aproximativ 0,1% din timp, spune GitHub, de obicei atunci când utilizatorii nu oferă suficient context în jurul cererilor lor sau când problema are o soluție obișnuită.

Construim un tracker de origine pentru a ajuta la detectarea cazurilor rare de cod care se repetă din setul de instruire, pentru a vă ajuta să luați decizii bune în timp real cu privire la sugestiile GitHub Copilot, spune FAQ-ul companiei.

Între timp, Nat Friedman, CEO-ul GitHub s-a certat pe Hacker News că instruirea sistemelor de învățare automată cu privire la datele publice este o utilizare corectă, deși a recunoscut că IP și AI vor fi o discuție politică interesantă în care compania va fi un participant dornic. (La fel de The Verge David Gershgorn rapoarte , că baza legală este în mare parte netestată.)

Instrumentul are și apărători în afara Microsoft, inclusiv inginerul principal Google Cloud Kelsey Hightower. Dezvoltatorii ar trebui să se teamă de GitHub Copilot, precum matematicienii de calculatoare, el a spus .