Appunti per una proposta normativa a integrazione dell'AI act. in sede europea.

 

Ver. 0.1 aggiornata al 20/11/2022


Se la prima, la seconda, la terza e la quarta rivoluzione industriale si sono occupate di automatizzare processi fisici intervenendo con la meccanica, l’elettronica, la chimica o addirittura smaterializzandoli con l’informazione digitale, la rivoluzione che ci apprestiamo ad affrontare vuole automatizzare direttamente i processi dell’ingegno umano attraverso l’intelligenza artificiale.  

Infatti “l’intelligenza artificiale è una disciplina che studia i fondamenti teorici, le metodologie e le tecniche che consentono di progettare sistemi hardware e sistemi di programmi software atti a fornire all’elaboratore elettronico prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana. Il suo scopo è quello di riprodurre o emulare alcune funzioni di quest’ultima.” (Treccani)

Una rivoluzione che abbracci una simile tecnologia ha implicazioni enormi su tutti gli aspetti della vita culturale, lavorativa e sociale degli esseri umani, con conseguenze etiche e pratiche su cui è tempo di interrogarsi. 

Sono un disegnatore che crede nella tecnica come poetica e nella forma come contenuto e sono quindi da sempre avido di provare tutti gli strumenti artistici esistenti che amplifichino le mie possibilità espressive.

Non sono certamente un luddista e opero nell’ambito dell’arte generativa con l’intervento considerevole di algoritmi informati con dataset da almeno venti anni. Nel caso di questo nuovo filone delle intelligenze artificiali AI TTI però mi trovo per la prima volta nella spiacevole situazione di non potermi unire all’entusiasmo della comunità artistica per questa nuova tecnologia per via di specifici problemi che invadono il terreno dell’etica e del rispetto dei diritti umani e che intervengono attivamente contro l’arte stessa e gli artisti. 

Proprio perché sono convinto che invece l’arte e gli artisti possono trarne enorme gioia creativa vorrei proporre in una serie di riflessioni e interventi che potrebbero migliorare le modalità di erogazione dei servizi TTI. 

Lo faccio ambendo in prima persona al fatto di potermi unire a quella che invece può e deve essere una festa creativa senza opacità e soprusi, lo faccio alla luce dei fatti che stanno accadendo attorno a questa tecnologia: considerato che è stato aperto un “AI Act” alla comunità europea che è completamente manchevole di qualsivoglia considerazione nei confronti degli artisti e del loro lavoro, propongo un manifesto, quanto più stringato possibile, su delle modalità che credo possano considerevolmente migliorare i termini di utilizzo di questa tecnologia.

Le applicazioni di Intelligenza Artificiale si propongono sul mercato dell’arte e della creatività come servizi in grado di sostituire il lavoro di artisti visuali e lo fanno producendo immagini comparabili a quelle opera di un essere umano in termini di qualità e lo fanno a costi non comparabili (parliamo di una ratio 1 a 10000) e in tempi non gestibili per un essere vivente, ovvero istantanei. 

Il fatto che questa qualità stupefacente delle immagini venga ottenuta dagli utenti con l’introduzione di un semplice brief testuale è senza dubbio la loro unique selling proposition e le pone in diretta competizione commerciale con artisti umani. Lo fa proprio nel loro mercato di riferimento a prezzi esponenzialmente inferiori quando non accade in maniera addirittura gratuita come nel caso della versione stand alone di Stable Diffusion e con tempistiche impensabili per un essere umano.

E’ però certo che, nonostante la questione economica sia un fattore importante, la loro competitività contro gli artisti umani e quindi il numero di utilizzatori di queste AI TTI si ridurrebbe drasticamente se producessero immagini di scarsa qualità o senza una cifra artistica di valore.

Da dove arriva quindi la qualità di queste immagini? 
Da diversi fattori.

Uno è senza dubbio la capacità di leggere un linguaggio basato su testo e usarlo per generare immagini.
Poi quello di generare, a partire da questo testo, una forma e di farlo utilizzando una tecnologia software interessantissima basata su diffusion model.
Infine, la forma del prodotto di ogni AI è legata indissolubilmente ad un processo di allenamento su enormi quantità di dati.

Più è alta la qualità dei dati di partenza rispetto al campo di applicazione, più è alta la qualità del risultato e la competitività dell’azienda che lo offre.
Se avessi una AI che genera immagini allenata sul dataset di un singolo stile visivo, quella AI non sarebbe in grado di fare altro che disegni in quello stile. Questo fatto, scientificamente dimostrabile, esemplifica il fatto che è solo grazie al lavoro degli artisti e ai dati di tutti noi che costituiscono i dataset che le AI sono in grado di produrre risultati formali di quella incredibile qualità e varietà.

In sostanza, la tecnologia in sè ha un valore completamente diverso se separata dai dati.

Per quanto complesso possa essere scrivere un algoritmo di AI, sono i dati a rendere i singoli progetti di AI veramente efficaci. Da dove arrivano i dati delle più importanti AI per la produzione di immagini, video, suoni e testi?

Stability AI  per la sua AI TTI “Stable DIffusion” usa un dataset che si chiama LAION 5B, fornito sotto il principio del “fair use” accademico dalla società non profit LAION. Questo dataset è un ammasso di 5 miliardi di immagini di qualsiasi tipo (foto, disegni, documenti che includono anche database di documentazioni ospedaliere e altri dati assolutamente privati) raccolte con uno “scraping” indiscriminato dalla rete con la scusa di raccoglierle a scopo statistico. LAION, però, pur essendo una società non profit è comunque finanziata da Stability AI stessa: una società commerciale valutata un miliardo di dollari che usa quei dati per generare un prodotto che vende al pubblico nella forma di servizio online e rilasciandola standalone in una versione open source, cosa che ha premesso loro di ottenere rapidamente il monopolio del mercato letteralmente brutalizzandolo.

Google IMAGEN per ammissione di Google stessa è allenata su dati “uncurated” e contiene una “wide range of inappropriate content including pornographic imagery”.

Midjourney non ha mai rilasciato informazioni sul suo dataset, ma esistono numerosi studi che dimostrano che è pieno di materiale copyrighted di artisti viventi.

In tutti i casi si tratta quindi di dati che sono completamente fuori dai requisiti minimi imposti dal rispetto dei diritti umani che regolano la nostra comunità.  

Posto che queste società operano su un mercato che si interseca quando non si sovrappone completamente a quello del lavoro degli artisti, e che sempre queste società hanno una quotazione economica stellare basata sul valore presente e futuro del loro prodotto e quindi sul valore formale degli artefatti prodotti dalle loro AI e fondato quindi sui dati che costituiscono i dataset di training, credo che ci siano una serie di punti che vadano inseriti in un documento sulla regolamentazione delle AI alla comunità europea a integrazione dell’European Ai Act.

I punti sono: 

  1. Tutti i dati relativi a persone o opere, in ogni forma essi siano, siano essi dati già digitalizzati come file di testo, audio, video o di immagine  o catturati dalla realtà attraverso videocamere, microfoni o qualsiasi mezzo di registrazione, non devono poter essere utilizzati per il training di modelli di AI senza l’esplicito consenso informato dei loro legittimi proprietari. 

  2. L’utilizzo di nomi di persone, nomi d’arte o opere che non sia coperto da una licenza di sfruttamento per il training di AI deve essere proibito dai software che consentono di inserire un prompt testuale o vocale per richiedere la generazione di un'immagine, video, testo o suono. 

  3. Parimenti, l’utilizzo di video, immagini, suoni e testi che non sia coperto da una licenza di sfruttamento per il training di AI deve essere proibito dai software che consentono di inserire media per richiedere la generazione di un’immagine, video, testo o suono. 

  4. Deve essere istituito un sistema di indicizzazione e certificazione standardizzato, human e machine readable delle attività delle AI e dei dataset di immagini, testi o suoni interamente o parzialmente prodotte con AI. Diciture come “interamente generato con AI”, “realizzato utilizzando materiale generato con AI” dovrebbero diventare lo standard anche per garantire un corretto funzionamento delle AI stesse. 

  5. Trovo completamente insufficiente il discrimine fra materiale copyrighted e di pubblico dominio per definire cosa possa essere inserito o meno nei dataset. Nei dataset possono e sono infatti presenti anche dati personali che sono sensibili ovvero protetti dalle leggi sulla privacy, ma non necessariamente coperti da un copyright. Allo stesso modo esistono materiali pubblicati sotto creative commons cc by o liberati per il pubblico dominio che quando sono stati pubblicati non potevano prevedere anche l’uso all’interno di dataset per il training di modelli di intelligenza artificiale visto che quella tecnologia non era nemmeno lontanamente immaginabile e non può essere quindi dato per scontato che lo prevedessero. Per smarcarsi dal problema Stability AI ha rilasciato una dichiarazione in cui rende noto che sta lavorando ad una funzione per poter effettuare l’”OPT OUT” dai loro sistemi di training per l’intelligenza artificiale, ovvero la possibilità di essere esclusi dal processo di apprendimento delle loro AI. Pur ammettendo che riescano nell’impresa tecnica, ovvero a portare a termine una roba complessissima come il machine unlearning, il processo con cui si può chiedere ad una AI di dimenticare quello che ha imparato durante la fase di deep learning, e ammesso che ci siano delle garanzie che di qualche tipo (e si direbbe che sia impossibile averne) sul fatto che un processo del genere porti alla eliminazione certa di quei dati dal modello, nonostante tutto questo possa sembrare un passo nella giusta direzione resta comunque una proposta irricevibile e niente affatto rispettosa dei diritti umani al punto tale che potrebbe addirittura peggiorare le cose. Infatti non si può certo partire da un concetto di “OPT IN” automatico, di adesione per silenzio assenso in cui sono i singoli esseri esseri umani da doversi tirare fuori da un processo automatizzato massivo, invisibile e istantaneo su scala globale, pena l’assimilazione indiscriminata in un modello software commerciale senza alcun preavviso.Posto che moltissimi artisti non sanno neanche dell’esistenza di questi algoritmi e che quindi sono impossibilitati a tirarsene fuori, anche quelli che ne sono consapevoli non è detto che riescano ad accorgersi della presenza di loro materiali all’interno dei data set: i nomi dei file dei data set come il LAION 5B sono spesso generati da piattaforme come pinterest, shopify, bigcartel o squarespace ed è letteralmente impossibile risalire al nome dell’artista o dell’opera a cui si riferiscono. In sostanza, per una piccola percentuale di artisti che effettuerebbe l’”OPT OUT” resterebbe la maggior parte dei dati di autori ignari, con Stability AI che sarebbe a quel punto completamente legittimata nello sfruttarli. Credo invece che ogni singolo dato che viene inserito nei modelli di training debba essere curato e autorizzato dai legittimi proprietari, che venga quindi inserito in maniera volontaria e informata dai singoli autori. Le azienda di AI sono quindi tenute a produrre internamente materiali originali per il training o a licenziare contenuti esterni secondo termini e condizioni contrattuali stabilite con i vari autori.

  6. La concessione dei dati per il training delle AI deve essere quindi registrata con un sistema ben più complesso di un semplice meccanismo “OPT IN/OPT OUT”, deve essere fatto all’interno di un sistema di licenza d’uso con modalità e termini di utilizzo che possano essere definiti in accordo con il legittimo proprietario dei dati in questione. Modalità e termini devono includere elementi come la durata della licenza d’uso, i territori consentiti per l’utilizzo e la formula economica per lo sfruttamento dei dati. Serve quindi l’introduzione del “training right”. Un’opera, per essere utilizzata come materiale nei data set di training di una AI text to image deve essere liberata dal “training right”. Questo disinnescherebbe anche il problema di dover sorvegliare sui data set: una condizione simile permetterebbe infatti ai data set di includere tutte le immagini esistenti, ma con la certezza che solo le immagini liberate da una apposita licenza vengano usate quando venga lanciato un nuovo processo di training. A scanso di equivoci: chiaramente sto parlando di una proposta che limiti l’uso delle immagini da parte delle AI, non degli uomini. Come specie non abbiamo nessun interesse nel limitare la libera circolazione della cultura fra gli uomini. Nel caso in cui invece consideriamo una AI un’opera generativa con un solo autore e molti collaboratori, gli utenti, le immagini che vengono generate a partire dai data set possono essere considerate delle libere interpretazioni dell’autore, quindi legittime, ma diventano automaticamente escluse tutte le opzioni in cui sia l’utente l’autore. O una o l’altra quindi e nel primo caso i data set non possono essere considerati liberi da una restrizione basata su una nuova forma di diritto d’autore.

  7. Trattandosi di una rivoluzione epistemologica, ideologica, filosofica e politica le opere d’arte classiche andrebbero omesse dai dataset per silenzio assenso considerato che una operazioni simili sul mercato dell’arte visiva minano alla radice il concetto stesso di heritage culturale. Considererei piuttosto l’opportunità economica di fornire delle licenze d’uso periodiche su opere specifiche da parte di istituzioni museali o fondazioni di questi materiali per avere un supporto concreto al mondo della cultura e dell’arte da parte dei vari provider di servizi AI.

  8. Introduzione del diritto all’oblio dalle AI. Un artista o una persona deve poter chiedere alle AI di essere rimosso dai data set, sia come contenuti multimediali che come dati di interazione online, operando una differenza statistica dei dati che lo riguardano.

  9. Introduzione della possibilità delle AI di rifiutarsi di svolgere compiti coperti da copyright e training right: chiedere di copiare un artista, specie se vivente, deve essere impedito come accadrebbe se lo chiedessimo ad un artista umano. Deve essere possibile farlo solo se l’autore ha volontariamente messo la sua opera a disposizione della AI.

  10. Quando una AI text to image “as a service” usa un contenuto non autorizzato e plagia qualcuno ci si deve rivolgere all’AI come azienda o all’autore come responsabile del risultato. Se l’immagine viene erogata come servizio, il cliente/committente va considerato parte lesa: è una vittima tanto quanto l’artista plagiato. E’ di vitale importanza che le aziende che erogano il servizio si assumano la responsabilità al 100%, è l’unico parametro che permetta di imporre un autentico senso del limite su scala industriale/globale. Se succede con una AI “as a tool” “custom built” il responsabile è ovviamente l’autore della AI, ovvero il committente.

  11. In Europa dovremmo poter porre un tetto limite al concetto di “fair use” americano quando si tratta di maneggiare dati di utenti privati, siano essi pubblici o meno, operando ad esempio come ha già fatto e continua a fare Twitter: i loro tweet pubblici sono accessibili per lo studio statistico ma Twitter mostra alle università solo una piccolissima parte pescata randomicamente dei loro tweet. Si tratta di una quantità di dati sufficientemente grande per poter svolgere qualsiasi tipo di studio, ma non è lontanamente paragonabile alla mole intera dei dati che gestiscono. Questo garantisce, anche nel caso di un uso illegittimo di dati con la licenza del “fair use” di lasciare protetti il 99% dei dati e permetterebbe un rientro meno problematico di una eventuale emergenza. 

  12. Dati coperti da “fair use” non dovrebbero mai finire nel training di modelli che non restino esclusivamente nell’ambito di ricerca accademica. 

  13. Gli algoritmi di AI sviluppati in ambito accademico e che vengono quindi creati a partire da dataset accademici devono essere allenati da capo su dataset con licenza commerciale nel momento in cui devono essere messi sul mercato da privati o da aziende spin off universitarie. 

  14. A corollario del discorso sui dataset serve l’Introduzione della possibilità delle AI di rifiutarsi di svolgere alcuni compiti, se implicano ad esempio il plagio o l’imitazione di materiali coperti da copyright, privacy o opt out, per criteri di deontologia professionale comuni: chiedere di copiare un artista, specie se vivente, deve essere scoraggiato come accadrebbe se lo chiedessimo ad un artista umano con l’aggravante che siamo davanti a d un algoritmo in grado di ottenere in una manciata di secondi migliaia di immagini quando un eccezionale falsario può impiegare anni per ottenerne una. Casa mia è piena di libri molto belli di artisti formidabili, ma sono in grado di capire da solo che non è una buona cosa imitarli copiando i loro stili, a meno che non mi serva da studio. Se mi venisse chiesto per lavoro di plagiare il lavoro di un altro autore mi rifiuterei di plagiare i loro stili nonostante abbia perfettamente a mente tutte le loro opere che ora fanno parte del mio bagaglio culturale. Sogno quindi una AI abbastanza intelligente da comportarsi come un vero artista, così intelligente da consigliarci di rivolgerci all’artista in questione (magari segnalandomi i suoi contatti pubblici) o da invitarci a trovare una nostra strada creativa originale con gli incredibili servigi che l’AI stessa ci offre.

  15. In caso di pubblicazione di modelli di training e di algoritmi di AI che operino al di fuori di queste specifiche restrizioni è di vitale importanza che in nome della difesa dei diritti umani ci sia la più fervida collaborazione fra le aziende che producono tali algoritmi e modelli, i provider che li ospitano sulla rete, le società che producono i sistemi operativi su cui questi algoritmi e modelli funzionano per una cancellazione repentina attraverso “algorithmic disgorgement” e il ban totale dei file incriminati da tutti i sistemi operativi esistenti e futuri. Pur consapevoli del fatto che esisterà sempre chi fra gli utenti finali sarà in grado di preservarne una copia funzionante locale, dobbiamo entrare in un’ordine legislativo in cui la preservazione di questi sistemi software equivale in tutto e per tutto a un crimine contro i diritti della propria comunità al pari di possedere software per la creazione di titoli di credito contraffatti. Parimenti, le aziende produttrici di sistemi operativi e i provider di spazio web che non provvedano a bannare gli algoritmi e dataset segnalati come illegali vanno considerati partner di un’operazione illegale.


Ciò detto riporto qui sotto i punti conclusivi del mio saggio “Click to imagine” (www.lrnz.it/clicktoimagine) che riguardano invece la deontologia professionale degli artisti nell’era delle AI:

  1. E’ di vitale importanza abituarsi a riportare i nomi di tutte le maestranze artistiche e gli autori coinvolti nella realizzazione di un’opera d’arte, qualsiasi sia il calibro dell’autore che firma l’opera. La pratica di firmare il progetto nascondendo i collaboratori va screditata con ogni forza possibile perchè apre a vulnerabilità gravissime sul concetto stesso di autore.

  2. Viste tutte le considerazioni su cosa è e come si verifica il processo di creazione per immagini, credo si possa serenamente dire che le AI text to image andrebbero trattate artisticamente come servizi che ci mettono a disposizione veri e propri autori di arte visuale, o come opere d’arte generativa e collaborativa che fa capo a un singolo artista con il quale stiamo collaborando, di certo non come normali strumenti creativi. Questo con tutte le responsabilità che l’essere artista o opera d’arte impone alle AI o a chi ne sia l’autore.

  3. Le AI non sono quindi affatto strumenti e gli utenti delle AI text to image sono committenti, clienti, o al limite artisti di altro tipo (scrittori, ad esempio) in cerca di una collaborazione con un artista visuale o generativo. Nel primo caso, questa figura del cliente si serve infatti di un servizio, a pagamento o gratuito online, non sta usando uno strumento. L’AI resta proprietà delle aziende che vendono o offrono il servizio, non è in nessun modo uno strumento artistico dell’artista. Il giorno che le aziende decideranno di cambiare policy, formule di generazione delle immagini o semplicemente falliranno, al committente non resta che prendere atto che ha perso per sempre il suo fornitore di semiosi visiva on demand. Nel secondo caso, l’autore di tutte le opere resterebbe, chiaramente, l’autore della AI.

  4. Di contro, le AI non vanno antropomorfizzate: non sono esseri viventi, non sono intelligenze, sono pezzi di software creati da aziende private che ambiscono a verticizzare in maniera totalitaria i processi della creatività.

  5. Legalmente e commercialmente le AI text to image as a service (locale o online) non vanno considerate come persone in carne ed ossa, ma come entità giuridiche nella figura delle aziende che vendono i servizi di questi artisti artificiali.

  6. Quando si paga il lavoro di una AI text to image, stiamo pagando una azienda di esseri umani, non una entità artificiale.

  7. Quando una AI text to image as a service sta usando il nostro lavoro per allenarsi, parliamo di una azienda che sta creando valore sul mercato, quello della qualità delle immagini, sfruttando le nostre proprietà intellettuali e abusando quindi di un sistema che non è assolutamente paragonabile alla diffusione libera della cultura umana.

  8. Qualunque immagine contenga una base generata con una AI text to image deve essere dichiarata come tale.

  9. Creazione di un sistema di certificazione “Made by AI”. Gli editori devono prendersi cura di verificare l’autenticità dei lavori dei propri autori per poter garantire che non si tratti di materiale prodotto attraverso AI spacciato per materiale umano. Come avviene nella competition di pixel art dove è estremamente facile copiare e incollare parti di lavori altrui, una serie di passaggi intermedi di lavorazione dovrebbero essere richiesti agli autori come documentazione e certificazione di autenticità. Esisterà quindi un problema etico inedito per chi si assuma la responsabilità di pubblicare materiale visivo che impone la non pubblicazione in caso di opacità o dubbio della provenienza delle immagini. L’editore dovrà tornare, molto probabilmente, a farsi gatekeeper che garantisca l’autenticità e la provenienza delle opere come oggi accade per molte delle notizie sui quotidiani (con gli effetti terribili che possiamo constatare quando il processo viene preso alla leggera). Garantendo, un po’ come succede con i prodotti alimentari, la provenienza dell’opera. La procedura sarà complessa considerato che le AI sono delle black box ormai e un processo di reverse engineering assistito da una macchina, fosse anche una AI ultra specializzata, è già impossibile.

  10. Qualsiasi autore che faccia uso di AI text to image e che non dichiari di stare usando le immagini di una intelligenza artificiale e che se le intesti deve essere considerato al pari di un ladro impostore, cosa specialmente vera se consideriamo la AI text to image opera di un artista a monte.

  11. Chiamare brainstorming l’utilizzo delle AI text to image nella fase di formalizzazione visiva iniziale di un progetto è per forza di cose una contraddizione in termini. La pratica di utilizzo delle AI in quella fase andrebbe chiamata per quello che è: chiamare un altro autore per farsi proporre delle idee visive che noi non abbiamo avuto. Niente di male, ma è la cosa più lontana che esiste da un brainstorming, significa saltare a piedi pari la fase creativa e commissionarla a qualcun altro. Deprecabile, per un creativo e un chiaro segno di indolenza mentale.

  12. Mentire sulle origini del proprio lavoro in caso di utilizzo di AI ha oltretutto un aggravante che riguarda la collettività tutta: difatti, mentendo sull’origine delle immagini si sta anche mentendo sul consumo energetico, un consumo che in un’operazione simile non è certo trascurabile e potenzialmente letale per la nostra specie qualora occultarlo diventasse un costume diffuso. Sarebbe sicuramente difficile se non impossibile capire chi consuma cosa per tracciare dei modelli di sorveglianza che siano effettivamente utili.

  13. Chiedere a una AI di copiare un artista vivente, che lo si faccia inserendo il suo nome nel prompt, allenando una AI su un'immagine dell’autore in questione o cercando di riprodurne lo stile usando un prompt dettagliatissimo è banalmente scorretto esattamente come lo è fornire l’opera di un autore vivente come reference ad un artista umano. Per quanto sia già pratica diffusa anche fra gli editori, è bene ricordare che nel caso che serva lo stile o addirittura un’immagine di uno specifico artista bisogna contattare quell’artista, usarlo come reference è professionalmente e eticamente riprovevole. Questo vale anche per gli artisti e dovrebbe valere anche per le AI: se un editore vi mette sul tavolo il lavoro di un altro artista chiedendovi un lavoro simile dovete sapere che non è una richiesta corretta. Il fatto che l’artista sia fuori portata in termini di costi o che l’artista non sia disponibile a collaborare non autorizza nessuno a copiarlo. In questi casi il committente deve fare uno sforzo in più e bisogna cambiare idea per il nostro progetto esattamente come faremmo davanti a un negozio chiuso o con prezzi troppo alti per il nostro portafoglio. Questo punto non va confuso con il diritto di un artista di studiare il lavoro di un altro artista, che è sacro e inalienabile. Parliamo di richieste della committenza e di risultati che possono finire potenzialmente nella sfera del plagio.

  14. Se si usa una immagine generata da una AI text to image come alternativa sostenibile per tempi e costi al lavorare con un illustratore umano c’è un problema di carattere etico professionale: di fronte a un problema di budget o tempi il progetto deve essere riveduto e corretto, ricorrere all’AI deve essere visto al pari di ricorrere al furto in mancanza di denaro. Anche tralasciando il fattore ambientale, non può essere considerata una strada percorribile, la motivazione non è assolutamente una giustificazione. Le AI dovrebbero essere utilizzate solo in quegli ambiti in cui si ritengano necessarie per via di specifiche caratteristiche formali ottenibili solo con una specifica AI.

  15. Perché non diventi un delirio orientarsi nelle attività di chi usi i servizi degli artisti artificiali sarebbe bene utilizzare una giusta nomenclatura: quando stai inserendo un prompt per ottenere un’immagine non stai lavorando a un immagine, non sei l’artista visuale. Stai commissionando un’immagine. Stai scrivendo un brief. Al limite stai lavorando assieme ad un artista artificiale per aiutarlo a darti quello di cui hai bisogno. Magari stai ritoccando il lavoro di un altro artista. Non stai lavorando direttamente sulla produzione di una immagine originale. Parlare di ricette, di cibare, di sognare crea un piano metaforico completamente inutile che è solo un comprensibile tentativo di non chiamare le cose col loro nome, perché si ha paura di venire delegittimati. Suggerisco ai committenti di accettare la propria posizione e a chi si erge a giudice o detrattore di considerare che i committenti ci sono sempre stati. Oggi commissionano a una AI perché hanno bisogno di un risultato artistico che non puoi dargli, domani potrebbero chiamare te, vedi il punto precedente.

  16. Ogni comunità organizzata che si rispetti dovrebbe incentivare l’uso di creatività visiva umana originale, con interventi pratici, quali agevolazioni fiscali per chi la impieghi. 

  17. Il concetto che la creatività visiva di un artista venga sostituita da un servizio a pagamento di una tech company è un abominio sul piano culturale oltre che etico lavorativo. La creatività as an automated service fondata su dataset illeciti è una pratica che deve essere scoraggiata con ogni mezzo

Concludo ribadendo che non vedo l’ora di poter usare questi nuovi strumenti senza la spiacevole sensazione di abusare del dura lavoro e delle informazioni private della mia comunità e di venire meno al mio codice deontologico artistico e professionale.