Creativo in che senso?

Intelligenza Artificiale, stupidi umani e tutti i passaggi intermedi Quando parlo dell’operato di una Intelligenza Artificiale Generativa (ovvero quella che produce, così chiamata per differenziarla da quella che “si limita” a discernere e classificare, spesso chiamata “discriminativa”) tendo a utilizzare il verbo “generare”, per l’appunto, rispetto al verbo “creare”. E lo faccio non tanto perché […]

Intelligenza Artificiale, stupidi umani e tutti i passaggi intermedi

Quando parlo dell’operato di una Intelligenza Artificiale Generativa (ovvero quella che produce, così chiamata per differenziarla da quella che “si limita” a discernere e classificare, spesso chiamata “discriminativa”) tendo a utilizzare il verbo “generare”, per l’appunto, rispetto al verbo “creare”. E lo faccio non tanto perché questa sia la terminologia corretta ma perché sono ben consapevole che tanti, a sentir parlare di “creazione”, tendono ad agitarsi.

Oggi però mi sono svegliata come Nanni Moretti, cioé con la voglia di litigare, e quindi poniamoci finalmente la domanda a cui tanti pensano di poter facilmente dare una risposta.

Può un’intelligenza artificiale essere creativa?

Per farlo ovviamente la domanda che ci dobbiamo porre è un’altra.

Cos’è e come funziona la creatività umana?

Secondo Margaret A. Boden, celeberrima ricercatrice di Scienze Cognitive al Dipartimento di Informatica dell’Università del Sussex, la creatività è l’abilità di produrre idee o artifatti che siano nuovi, sorprendenti e di valore. Ciascuno di questi concetti avrebbe bisogno a sua volta di un approfondimento per il quale non basterebbe una vita. Cosa si intende per nuovo? Sorprendente per chi? E, soprattutto, chi stabilisce il valore di un’opera?

Curiosamente sono proprio i temi portati all’attenzione nello spettacolo Rohtko di settimana scorsa.

Per alcuni la creatività costituisce l’apice dell’intelligenza umana. Ma sono sufficienti cinque minuti di approfondimento per renderci conto che in realtà non sappiamo come definirla.
Bastano altri cinque minuti ed ecco presentarsi il problema immediatamente successivo: non solo non sappiamo definire in modo univoco cosa renda creativa un’idea, ma in realtà non sappiamo nemmeno bene come succeda che le idee prendano forma nei sistemi di intelligenza umana.

All’apice di uno dei tanti paradossi che rendono così interessante parlare di Intelligenza Artificiale, è proprio il funzionamento delle reti neurali a fornirci degli indizi su come districarci nell’analisi dell’intelligenza umana.

Uno degli obiettivi dichiarati delle ricerche sull’Intelligenza Artificiale è il suo utilizzo per comprendere meglio i funzionamenti dell’umano.

Sempre secondo Margaret Boden, l’intelligenza umana opera su tre livelli:

  1. la ricombinazione di concetti noti in una configurazione originale;
  2. l’esplorazione dei canoni legati a uno stile o a una corrente che si ritiene o percepisce essere più o meno codificata;
  3. la creatività trasformativa, che spesso scaturisce dalla frustrazione nei confronti dei limiti auto-imposti nella strada esclusivamente esplorativa e rompe i canoni perché genera nuove configurazioni, nuove strutture se non addirittura nuovi concetti, che non avrebbero potuto essere generati in precedenza. I risultati di questo terzo tipo di creatività incontrano spesso una difficoltà iniziale a essere riconosciuti e ad affermarsi, proprio perché infrangono le regole di ciò che viene normalmente considerato creativo.

Ammettendo che queste categorie siano soddisfacenti – e per quanto mi riguarda lo sono – vediamo un istante se le principali Intelligenze Artificiali Generative sono in grado di generare prodotti considerabili creativi rispetto a questi parametri.

Per i curiosi, il riferimento bibliografico è questo.

Creatività di Ricombinazione

L’accusa principale che i detrattori muovono alle Intelligenze Artificiali Generative è la loro supposta mancanza di creatività perché, a loro detta, questi sistemi si limiterebbero a “rubare” pezzi di lavori altrui per poi ricombinarli senza alcun apporto creativo da parte dei sistemi stessi.

Ora – indipendentemente dal concetto di “furto”, che ha a che fare con il molto pressante ma ahimé distinto problema dell’eticità del dataset su cui questi sistemi sono stati addestrati – l’obiezione dimostra di aver poco compreso non tanto il funzionamento delle Intelligenze Artificiali ma il funzionamento della creatività umana. La Divina Ispirazione non esiste (l’avevo detto che avevo voglia di litigare, vero?) e nessuno di noi è in grado di creare qualcosa di completamente inedito che non sia, almeno in parte, la ricombinazione di concetti, idee e immagini cui siamo stati esposti durante la nostra vita.

E se invece vi dicessi che le Intelligenze Artificiali Generative sono particolarmente deboli in questo tipo di creatività?

Creatività di Esplorazione

La maggior parte delle Intelligenze Artificiali Generative operano in questo ambito: forniamo loro dei paletti all’interno dei quali devono operare (l’immagine fotorealistica, il testo nello stile di Mary Shelley, un’apparente verità formulata in toni assolutistici e così via) e loro producono degli output all’interno dei margini imposti.

Alcuni di questi margini possono essere impostati dall’utente, ad esempio costruendo una persona per il Large Language Model oppure chiedendo, per l’appunto, un testo nello stile di Mary Shelley. Altri fanno parte delle impostazioni di base del modello, impostati durante il suo addestramento, e sono i paletti che gli consentono di produrre un risultato che gli stupidi umani possano considerare valido, in quanto conforme a modelli e canoni già accettati.

Il Modello alla base di Stable Diffusion è un modello di diffusione probabilistica (Diffusion Probabilistic Model), originariamente utilizzato per rimuovere il “rumore” dalle immagini e successivamente potenziato per sintetizzare nuove immagini. Lavora su un sistema di forward diffusion, un processo iterativo in cui lancia pixel a caso fino a ottenere un risultato simile al rumore bianco, e di reverse diffusion in cui cerca di sistemare il casino che lei stessa a creato, incidentamente creando un’immagine originale che non è mai esistita.

Esiste però un altro sistema che è utile analizzare per capire l’approccio generale delle Intelligenze Artificiali Generative e si tratta di una delle invenzioni più strutturalmente malvagie del nostro tempo: il Generative Adversarial Network (GAN).

Anche più malvagia di loro.

Si tratta di sistemi composti generalmente da due reti neurali che operano in simbiosi: una prima rete che chiameremo il Brutto e una seconda rete che chiameremo il Cattivo.

La prima rete, il Brutto, è chiamata discriminatore e ha il compito di distinguere se un determinato input sia originale o falso, e viene premiata quando indovina correttamente.
La seconda rete neurale, il Cattivo, è avversaria della prima: deve creare falsi da presentare al discriminatore per ingannarlo, e viene premiata quando riesce a ingannare la prima.
Si tratta, come potete immaginare, di reti che operano nell’ambito del Reinforcement Learning, perché la loro prestazione è sottoposta a sistemi di rinforzo tramite premio. La “ricompensa” non è da intendersi in senso letterale, ovviamente: nessuno è pagato per dare caramelle agli algoritmi (almeno spero). Si tratta di un incremento di una funzione matematica che funge da punteggio che le reti cercano di massimizzare. Questa simbiosi crea una competizione tra due avversari che cercano di superarsi a vicenda.

Come loro.

All’inizio della fase di addestramento, le informazioni generate dalla rete falsaria saranno facilmente riconoscibili come false. Con il progredire dell’addestramento, però, il rinforzo la indirizzerà a produrre informazioni che sempre più spesso riescono a ingannare il discriminatore. L’obiettivo è che la qualità di informazioni false sia quasi indistinguibile da quella delle informazioni reali.

Cosa potrebbe mai andare storto?

E la Creatività Trasformativa?

Il punto è: saremmo in grado di riconoscerla, quando dimostrata dalla macchina, o la derubricheremmo come un malfunzionamento del modello?

Secondo Lev Manovich ed Emanuele Arielli, la somiglianza del prodotto di un’Intelligenza Artificiale al prodotto generato dalla creatività umana non dovrebbe proprio essere il becnhmark da considerare per giudicarne la creatività, anche perché ogni volta che poniamo un benchmark di somiglianza, e la macchina si dimostra in grado di raggiungerlo, l’umano sposta il becnhmark.

Quando un’Intelligenza Artificiale ha vinto a dama, abbiamo detto che non avrebbe mai potuto vincere a scacchi.

Nel caso di quest’ultimo tipo di creatività, quella trasformativa, l’idea stessa di un Test di Turing è assolutamente non idonea, perché avremmo bisogno di un test che ci aiuti a individuare prodotti che siano esteticamente  di valore perché al di fuori dei canoni tadizionali, ed evidentemente di generazione non umana.

Superando quindi quello che nella concezione di Turing era il “gioco dell’imitazione”, Arielli e Manovich propongono un test differente il cui obiettivo sia identificare macchine che:

  1. Raggiungano prestazioni superiori a quelle dell’umano, ovvero in ambito estetico producano qualcosa di più bello e piacevole di quanto farebbe un umano ma senza che la somiglianza ai prodotti umani sia una variabile nel giudizio;
  2. manifesti la capacità di essere creativa nel senso di generare qualcosa di nuovo;
  3. si dimostri capace di un comportamento autonomo e di produrre qualcosa di inedito e inaspettato, potenzialmente lontano dalle intenzioni iniziali dei suoi programmatori.

Non si affronta in questo caso il tema dell’autocoscienza, il focus è sun prodotto, ma per dovere di cronaca presento anche questo punto di vista.

“Salvo rare eccezioni, forse anche legate a interessi di visibilità mediatica, i filosofi sono concordi nel ritenere che la differenza tra un’opera creativa e un’opera non creativa risieda nell’intenzionalità dell’autore. Se non vi è intenzionalità da parte dell’autore, non si può parlare di creatività né di arte.”
– S. Quintarelli, Intelligenza artificiale: Cos’è davvero, come funziona, che effetti avrà

Non mi voglio addentrare in una riflessione circa l’auspicabilità di questo scenario, perché entreremmo in un ambito che in questo momento sarebbe troppo lungo esplorare. Né mi preme espandere su quanto tutto ciò sia già tecnicamente possibile. Il punto su cui voglio soffermarmi è il seguente: probabilmente in modo indipendente dal concetto di intenzionalità, le nostre macchine non sono creative principalmente perché non vogliamo che lo siano. Esattamente come non vogliamo che lo siano gli umani.

Il celebre psichiatra svizzero Carl Jung definì lo stile di Picasso una forma d’arte malvagia e sottosviluppata, che non avrebbe dovuto trovare posto nelle gallerie d’arte. “E per quanto riguarda il futuro”, disse, “preferirei non azzardarmi a formulare profezie, peché la sua avventura interiore è una faccenda rischiosa che può portare in ogni momento a uno stallo oppure ad una catastrofica esplosione”. Aveva visitato un’esposizione monografica di 460 opere tenutasi dall’11 settembre al 30 ottobre 1932 nella Künsthaus di Zurigo. Picasso avrebbe dipinto per altri 41 anni.

Jung stava di fatto suggerendo che Picasso avrebbe presto smesso di produrre oppure si sarebbe tolto la vita.

La lista di umani innovativi rigettati dai loro critici sarebbe lunga, dagli Impressionisti che devono il loro nome alle detrazioni di un critico sulla stampa al povero Cézanne. E se non la comprendiamo negli umani, come pretendiamo di comprenderla quando questa creatività si manifesta in una macchina? Ma ancora di più, se non lo vogliamo negli umani come ci immaginiamo possa venire programmata una macchina con le caratteristiche necessarie per raggiungere questo obiettivo?

Ma cosa vogliamo, quindi?

Salvo qualche esplorazione in ambito accademico, l’obiettivo di modelli come Stable Diffusion non è la creatività e di certo non quella trasformativa che potrebbe davvero apportare un contributo interessante per la crescita dell’umanità.

I modelli si concentrano sulla dimensione più familiare e addomesticata della creatività di esplorazione perché il loro obiettivo è consentire alla grande massa degli utilizzatori non etici di utilizzarli per sostituire l’umano con un assistente che non faccia obiezioni e cui non vengano in testa strane idee.

Cerchiamo di essere degli utilizzatori differenti.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.