pleroma.debian.social

@nameless @zuz dovrebbero essere davvero open (meglio se liberi) i modelli di OpenAI e permettere il self-hosting, nonostante magari ci vorrebbero troppe risorse per un uso domestico e non ne varrebbe la pena solo per, chessò, accendere delle lampadine con la voce.

@nameless @zuz sì, io mi riferivo al modello precomputato, del resto avendo usato (in fair use?) dati da fonti di cui non si sa la licenza perché il modello è chiuso? :)

copilot sputava all'inzio fuori verbatim di pezzi di codice coperti dalla GPL3 ad esempio... ma so che appunto possono legalmente farlo... peccato :/
replies
1
announces
0
likes
1

@zuz @nameless eh sì vero, ha bisogno di molte risorse, appunto per questo in molti constesti IMHO non ne vala pena andando a guardare il rapporto costi/benefici.

@nameless @zuz sì vero, infatti come in tutte le cose io andrei a valutare il fine: la sto usando perché mi aiuta a modellizzare una proteina per curare una malattia? In questo caso non mi pare uno spreco di risorse. (Discorso a parte quello della proprietà intellettuale sui farmaci, per me non dovrebbe esistere.)

@nameless @zuz non lo so questo sai, il rasoio di Occam mi suggerisce che non hanno bisogno di aggiungere hardware (quindi spendere di più) per profilare gli utenti: possono farlo facendosi mandare tutto a "casa loro"¹. Magari i casi d'uso sono leggittimi: chessò per la fotografia riconoscere semanticamente i soggetti permette di applicare lo sfocato e cose così ad esempio.

🤷

¹ solo un esempio recente, di sicuro ce ne sono altri https://arxiv.org/abs/2204.10920

@nameless @zuz sì il mio era solo un esempio, ho compreso il concetto e lo condivido. Con una sola differenza che secondo me non serve ML a rendere il tutto orwelliano, cioè di sicuro semplifica, ma per il controllo e l'aggregazione e la manipolazione dei dati l'uso di ML è solo qualcosa in più IMHO. Questo https://www.wired.com/story/north-korean-phone-jailbreakers/ è molto orwelliano e una delle tecniche consiste nel fare dei semplici screenshot...

@nameless @zuz non c'è bisogno di scusarsi, anzi grazie per gli spunti! Concordo in pieno sui rischi e sull'aspetto raccapricciante della cosa. Se venissero dichiarate illegali utilizzi del genere sarebbe tutto più semplice, ma dubito che accadrà. Non lo ricordo bene perché sono passati 2 anni, ma l'ultima volta che sono stato al FOSDEM seguii https://archive.fosdem.org/2020/schedule/event/ethical_ai/ che trattava un po' il problema.