Două sisteme de operare open source importante (Gentoo și NetBSD) au interzis membrilor lor să folosească coduri create de instrumente de inteligență artificială.
Publicitate
Una dintre cele mai surprinzătoare aplicații ale modelelor lingvistice lungi, „motoarele” inteligenței artificiale generative și de dialog moderne, este că acestea pot genera cod în mai multe limbaje de programare. Rezultatele nu sunt întotdeauna perfecte , dar, în unele cazuri, ele servesc drept un bun punct de plecare pentru perfecționarea unui programator sau chiar pentru cineva care nu știe să programeze, pentru a obține o aplicație funcțională de bază.
Acest tip de instrument a început chiar să fie integrat inițial în diverse medii de dezvoltare software . Platforma GitHub, de exemplu, oferă de mult timp GitHub Copilot, care permite crearea de programe sau părți de programe din descrieri de text în limbaj natural.
De asemenea, acestea au devenit centrul unei dezbateri care începe să prindă contur în cadrul comunității de software liber, care depinde de contribuțiile câtorva programatori la proiectele sale și unde nu există întotdeauna un grad ridicat de control. Părți din codul produs de aceste tipuri de sisteme au început deja să fie utilizate în numeroase aplicații freeware susținute dezinteresat de comunitate.
În prezent, două distribuții populare de sisteme de operare bazate pe Unix, Gentoo Linux și NetBSD, au închis direct ușa acestui tip de contribuție. Gentoo a făcut acest lucru în aprilie anul trecut, iar NetBSD a făcut-o la mijlocul lunii mai . Contributorii la aceste două proiecte trebuie să se angajeze să nu folosească cod creat cu instrumente de inteligență artificială generativă.
„Codul creat folosind un model de limbaj lung sau tehnologii similare, cum ar fi Copilot de la GitHub/Microsoft, ChatGPT de la OpenAI sau Llama de la Facebook/Meta, este cod impur și nu trebuie adăugat fără aprobarea scrisă prealabilă a contribuitorilor de bază.” explică explicit noile orientări de contribuție de la NetBSD .