AI generativa: dove siamo partiti, dove siamo arrivati e dove arriveremo con l’Intelligenza Artificiale?
C’è stato un tempo in cui l’AI generativa ci aiutava a velocizzare la composizione degli sms o a tradurre testi in lingua straniera, c’è stato il tempo degli assistenti vocali in ogni casa pronti a rispondere a qualsiasi domanda in tempo reale e oggi è il tempo di ChatGPT. Una, in realtà, delle tantissime soluzioni di Intelligenza Artificiale generativa che ha colto l’importanza di adottare un approccio multipurpose. Perché accontentarsi di un’AI dalle competenze limitate quando è possibile progettare e sfruttare Artifical Intelligence capaci di fare tutto, dalla conversazione alla creazione di testi in rima, dalla generazione di immagini e video alla programmazione? Ma se è vero che, come tanti temono, “l’AI conquisterà il mondo”, è tempo di introdurre nuove normative e formare aziende e utenti finali su quelli che sono i vantaggi e i rischi dell’uso di soluzioni generative come ChatGPT. In questo articolo, grazie all’aiuto di Daniele Sarnari, DevOps Engineer e AI enthusiast di Beliven, esploreremo l’evoluzione dell’AI generativa, dalle sue origini ad oggi, per approfondire come sono cambiate le cose e come, probabilmente, cambieranno nei prossimi mesi con l’ingresso in scena dell’Artificial Intelligence Act.
Cos’è l’AI generativa: è davvero una novità?
Se con Intelligenza Artificiale si intende genericamente la qualità o capacità di un programma di saper eseguire e completare in maniera autonoma dei task, ovvero senza l’intervento di un umano (spesso sotto forma di programmatore) , con AI generativa si intende la capacità di un programma di creare qualcosa di nuovo che il sistema stesso non ha mai visto prima. In poche parole, l’AI generativa rappresenta quindi una sottocategoria dell’Intelligenza Artificiale.
Nonostante l’attenzione mediatica degli ultimi anni, frutto di una nuova ondata di tool d’Intelligenza Artificiale messi a disposizione del grande pubblico, la generative AI non è affatto cosa recente. “Chi si ricorda l’autocompletamento della tastiera?”, ci chiede Daniele, “Il famoso completamento automatic (ex T9) era già una forma di AI generativa capace sostanzialmente di predire, man mano che l’utente scriveva il messaggio, quale parola avrebbe utilizzato in seguito. I cellulari erano dotati di una versione stock pre-addestrata di Intelligenza Artificiale alla quale era stato insegnato che nel 98% dei casi, quando un utente scrive ‘ciao come’, la parola che vorrà scrivere dopo sarà ‘stai’”. Già all’epoca, questa AI generativa era però in grado di continuare ad adattarsi all’utente e rifletterne, in un certo senso, le abitudini. Ad un utente che più e più volte al ‘ciao come’ fa seguire un ‘va’, l’AI generativa suggerisce insomma di completare il messaggio proprio in quel modo, essendosi di fatto personalizzata sull’utente e avendo appreso dalle sue consuetudini.
“Di esempi di AI generativa con cui abbiamo a che fare da anni ce ne sono tanti. Ad esempio, Google Search o Google Translate, il tool di Google che consente di tradurre i testi da una lingua all’altra”. L’aspetto interessante di questo secondo strumento è che non si basa sulla logica del vocabolario, ovvero non presenta traduzioni letterarie parola per parola, ma è piuttosto in grado di cogliere il senso dell’intera frase, riconoscendo il fatto che parole e espressioni variano a seconda della loro collocazione all’interno della frase.
Generative AI: dal modello predittivo alle reti neurali
“Fino a 6, forse 5 anni fa, l’AI generativa si basava su semplici calcoli della probabilità. Oggi si basa invece sulle reti neurali, che sono vere e proprie strutture che i ricercatori hanno realizzato a partire dallo studio del funzionamento del cervello umano, trasformando neuroni e sinapsi in quelli che chiamiamo rispettivamente nodi e parametri”. All’origine delle reti neurali, insomma, c’è proprio questo: il desiderio di avvicinare le macchine al grado di intelligenza umana riproducendone il funzionamento del cervello.
Ma possiamo davvero parlare di intelligenza? “Assolutamente no. Rispetto al funzionamento del cervello umano ci sono ancora talmente tante cose che non sappiamo! L’intelligenza artificiale non fa che svolgere dei calcoli matematici complessi, portati su scala di miliardi di unità”. Non a caso, di tipologie di reti neurali ce ne sono molte e diverse perché a guidare è lo scopo. Ad esempio, le reti neurali ricorrenti (RNN) sono molto più efficienti nell’elaborazione di sequenze (come le frasi), mentre le reti convoluzionali (CNN) sono indicate per la classificazione di immagini.
L’AI multiscopo e il successo di ChatGPT
Qualche anno fa, le persone hanno cominciato ad aprire le porte di casa agli assistenti vocali, AI come Alexa e Google Home, che hanno reso evidente quanto sia comodo e efficiente poter ottenere risposte (o compiere azioni) senza muovere un dito.
Eppure, queste forme di AI e tutte quelle che abbiamo visto all’inizio avevano un piccolo “difetto” che all’improvviso è sembrava cruciale: erano nate e pensate per compiere un’attività specifica e una soltanto. Dal tradurre un testo al completare una frase fino ad ascoltare e fornire una risposta precisa.
Ed è proprio lì che i ricercatori hanno colto la necessità di nuove forme di AI, ovvero AI generative multiscopo. Ma come è successo? “Come spesso accade, le migliori invenzioni sono il risultato di situazioni impreviste. In un certo senso, l’AI multiscopo è semplicemente una conseguenza capitata ai ricercatori che, scalando e aumentando nodi e parametri e aumentando quindi la conoscenza, si sono resi conto che l’Intelligenza Artificiale acquisiva nuove capacità, perdendo la sua specificità originale. Insomma, l’AI non era più soltanto brava a completare una frase, ma anche a portare a termine ragionamenti, fare calcoli matematici o persino a scrivere in rima.”
Così nel 2019, OpenAI, una delle tante aziende che all’epoca si occupava di Intelligenza artificiale, ha rilasciato GPT 2 , un’AI cui capacità computazionali erano paragonabili a quella di una formica, considerando come metro di paragone il rapporto tra nodi del sistema e neuroni del cervello. Questa AI si è infine evoluta fino a diventare GPT 3 nel 2020 , con un’intelligenza pari a quella di un topo, e a metà2023 GPT 4 , con una dimensione sempre più vicina a quella del cervello umano.
Come funziona l’AI generativa di ChatGPT e quando raggiungeremo il limite?
Il nome di ChatGPT si deve al modello su cui si basa, ovvero GPT (Generative Pre-training Transformer). Il funzionamento di questa AI generativa è il risultato appunto dei transformer, 8 blocchi di reti neurali molto grandi disposte in successione.
“Il punto è che stiamo raggiungendo il limite”, racconta Daniele, “perché tutta la conoscenza prodotta dal genere umano che siamo riusciti a raccogliere e a dare in pasto all’AI generativa di GPT è qualcosa non lontano dalla 1013 e ci manca davvero poco per raggiungere questa soglia”.
Oggi, la sfida è trovare un modo per fornire all’AI meno conoscenza, così che possa apprendere in tempi più rapidi, senza però intaccare il risultato Ovviamente, un paradosso: se quel che ChatGPT conosce adesso è il risultato di quel che ha imparato, potremmo mai insegnare all’AI meno cose e aspettarci lo stesso grado di “conoscenza” finale?
“Proprio per questo molti ricercatori sono convinti che il punto sia smettere di basarci sulla grandezza della rete neurale, ma focalizzare il ragionamento e la ricerca sull’efficienza”. Una strada, questa, presa anche da diversi modelli open source che hanno il grande compito di impedire la creazione di un vero e proprio monopolio sul mondo dell’Intelligenza Artificiale offrendo valide alternative alle soluzioni proposte dai grandi colossi come Microsoft e Google. “Perché in effetti non possiamo dimenticare che l’AI generativa creata da queste big tech è proprietaria, ovvero possiamo utilizzarla, ma non possiamo sapere cosa c’è dentro”, conclude Daniele.
Le conseguenze dell’AI generativa sul mondo del lavoro
Stando alle previsioni, tutti i lavori ripetitivi o automatizzati verranno prima o poi soppiantati dell’AI. Ma a preoccuparsi sono anche i creativi, cioè coloro che si occupano di realizzare contenuti come video, immagini o testi.
“A mio avviso, questa preoccupazione al momento è eccessiva. L’AI non è intelligente e non siamo minimamente vicini alla reale intelligenza umana. La verità è che le persone hanno ancora tutto il potere, perché sta a loro capire e riconoscere che il lavoro realizzato da un essere umano apporta un valore aggiunto al prodotto finito. Se ci accontentiamo dei risultati proposti dall’AI, possiamo davvero dare la colpa all’Intelligenza Artificiale?”
Intelligenza Artificiale: verso l’uso consapevole
Eppure, quando si tratta di utilizzare AI generative come ChatGPT ci sono delle cose da chiarire. “Sì, perché è importante sapere che i dati su cui si basano i modelli di OpenAI sono stati raccolti in modo non del tutto trasparente attraverso attività come lo scraping e violando alcuni dei diritti fondamentali della Costituzione, dal diritto all’oblio a quello alla privacy fino al copyright. Quindi usare queste soluzioni significa assumersi un rischio. Non tutti lo sanno perché siamo abituati ad accettare le condizioni del servizio senza prestargli troppa attenzione, ma ogni utente è legalmente responsabile di ciò che offre a ChatGPT in input e di ciò che fa dell’output. Se il logo che ChatGPT ha creato per te e tu hai scelto di utilizzare è estremamente simile ad un logo esistente, il responsabile non è ChatGPT ma tu utente”.
Nonostante i rischi, è evidente che l’Intelligenza Artificiale continui ogni giorno a velocizzare il lavoro di moltissimi professionisti e, certamente anche per questo, viene adottata da singoli utenti e business. “È innegabile”, racconta Daniele, “con l’AI, attività che richiedevano due giorni ora possono essere portate a termine in poche ore. Se metà della popolazione non utilizza l’AI per paura di come possano essere utilizzati i dati, la restante metà la usa ogni giorno e all’incirca il 93% delle aziende riconosce la presenza di rischi. ”
L’Artificial Intelligence Act
Che sia quindi arrivato il momento di regolamentare il mondo dell’Intelligenza Artificiale? Stando all’Artificial Intelligence Act, diventato legge a febbraio 2024 con il via libera all’unanimità di tutti i Paesi membri dell’UE, pare proprio di sì.
“L’Unione Europea ha cominciato a lavorare a questo documento per regolamentare l’AI dal 2021, dopo essersi presa del tempo per comprendere, analizzare e capire quali fossero i pro, i contro e i rischi dell’Intelligenza Artificiale. Questo significa che tra 6 mesi, insomma, chi non rispetterà le nuove normative riceverà delle importanti sanzioni che dipenderanno naturalmente dalla gravità della violazione oltre che dalla dimensione dell’impresa”.
Ma cosa contiene questo documento?
In primo luogo, l’AI Act stabilisce che le organizzazioni che offrono servizi di Intelligenza Artificiale debbano obbligatoriamente rientrare in una delle tre categorie di rischio (basso, medio e alto), a seconda di quali dati vengono presi dall’utente e quali informazioni gli vengono rese. Per ogni categoria, le imprese dovranno comprovare, portando a sostegno documentazione e certificazioni, quali sono le misure di sicurezza che vengono prese per assicurare l’integrità del sistema. “Pensiamo ai sistemi di AI che registrano le chiamate vocali. Chiaro che le realtà che offrono questo servizio non possono avere falle dal punto di vista della sicurezza, essendo la chiamata un dato estremamente sensibile. Questo significa che oltre a tutta una serie di misure preventive relative al sistema, dovranno anche adottare delle policy interne specifiche, ad esempio rendendo obbligatoria la disattivazione dello schermo dei dipendenti dopo 15 secondi di inattività”.
In aggiunta, alle imprese sarà chiesto di svolgere degli assesment ma anche di essere più trasparenti nei confronti degli utenti, mettendo la documentazione relativa al funzionamento del sistema a disposizione della comunità.
“Durante l’AI festival che si è tenuto a Milano questo 14 e 15 febbraio”, racconta Daniele, “la vicepresidente della Camera dei Deputati e diversi rappresentanti della Commissione per l’Intelligenza Artificiale hanno chiarito che l’obiettivo è imporre delle regole significative a chi i modelli li fornisce, non punire chi li utilizza”.
L’AI generativa nelle imprese
Nel frattempo, per evitare di incorrere in problemi di diversa natura, molte startup stanno cominciando a distribuire i modelli americani attuali su infrastrutture europee, così da essere più compliant e avere una maggior governance sui dati. “D’altronde, questo significa assicurarsi che i dati non escano dall’Europa ed essere quindi molto più trasparenti nei confronti degli utenti, offrendo termini e condizioni molto meno stringenti rispetto a quelle di OpenAI, ad esempio”.
Dato lo stato attuale delle cose, ad oggi l’Intelligenza Artificiale si è guadagnata un posto fisso all’interno di diverse imprese nostrane. Ma se è vero che può rivelarsi preziosissima per ottimizzare le attività di reparti HR, sales, marketing e development e per automatizzare i processi, esistono ancora realtà in cui l’AI si fa superflua. È il caso di tutte quelle realtà che necessitano di attività fisiche e non meramente intellettuali.
Vuoi saperne di più? Contatta Beliven, la software house specializzata nella realizzazione di prodotti e soluzioni digitali personalizzate per le aziende.