Codice Rosso

Intelligenza Artificiale, scienza o solo marketing?

Proponiamo la nostra traduzione in italiano dell’articolo della Handelsblatt del primo luglio 2024, firmato da Larissa Holzki e Luisa Bomke dal titolo “Wissenschaft -oder doch nur Marketing?”. La domanda parte da una considerazione: da quando OpenAI ha lanciato CHATGpt, con evidenti scopi di business di scala globale, siamo ancora nel campo della scienza che evolve o direttamente in quello dei prodotti che il marketing deve lanciare? Perché se è vero che la scienza esiste a prescinde dal fatto di essere pubblica o proprietaria è altrettanto vero che quando intervengono capitali colossali il marketing, per il ritorno di immagine e capitale, tende a prendere il sopravvento.

L’intervento, spettacolare, dei capitali privati nel settore, prima ancora del lancio di ChatGpt, ci rende la AI per cosa è: un salto in avanti del settore scientifico STEM, dimensione del dominio del capitale tecnomorfo, un gigantesco tentativo globale di ristrutturazione della produzione, dei servizi, dello stesso legame sociale e dello sviluppo dell’intelletto agente tramite la relazione permanente con l’intelligenza artificiale. Le criticità di questo tentativo sono legate, ovviamente, a come si sviluppa l’intelligenza artificiale. Lasciando perdere discussioni oziose sulla AI che sostituisce gli umani in funzioni essenziali o li rende più stupidi, chi interagisce con la AI ottiene risultati solo se ha un rapporto intelligente con essa, oggi la discussione seria è su come si sviluppa l’intelligenza artificiale e in quale modo impatta su una miriade di settori dalla produzione all’intelligenza collettiva e singolare.

Consideriamo che su questo settore la Germania, nonostante abbia investito più dell’Italia, si trova in ritardo rispetto alla competizione-guerra globale che si è scatenata con USA e Cina e la necessità che Berlino ha di ristrutturare il proprio settore scientifico e produttivo. Detto questo l’articolo della Handelsblatt è una ricognizione sulle criticità del AI, sul rischio della prevalenza del marketing nell’assetto produttivo, e sul rapporto AI-intelligenza umana che, aggiungo, assume, sempre di più, un aspetto non solo fortemente legato ai processi di soggettivazione ma anche uno direttamente politico.

Nell’articolo delle due giornaliste della Handelsblatt emergono il primato dell’approccio tedesco, la convergenza di pubblico e privato nello sviluppo della AI, la discussione sulla genesi della conoscenza umana come fattore immediatamente produttivo e le criticità dell’evoluzione della tecnoscienza come problema di modelli produttivi.  Mentre in Italia, e in parte dell’Europa, si discute soprattutto di necessità di controllo di questi processi qui troviamo uno sguardo a cosa sta accadendo nel continente dell’innovazione AI, un qualcosa di enorme che non è solo scienza o solo marketing il cui impatto sulle nostre società è comunque considerevole.

per codice rosso, nlp

 

Larissa Holzki e Luisa Bomke, Heidelberg

È successo mentre due dei più rinomati scienziati dell’intelligenza artificiale (IA) guardavano insieme il Campionato Europeo di calcio: il giorno dopo lo racconta su un palco il direttore del Max-Planck-Institut per i sistemi intelligenti, Bernhard Schölkopf, parlando del suo collega Yann LeCun, “Il mio gatto lo ha morso” . L’intero auditorium ride.  Un caso? Un qualche tipo di vendetta?

Tra gli aspiranti scienziati di Tubinga, tutti conoscono LeCun vincitore del premio Turing e capo scienziato dell’IA presso Meta (Facebook), e sanno che da mesi ripete nelle interviste: “Finora l’intelligenza artificiale non è nemmeno intelligente quanto un gatto domestico”.

Nella concorrenza aspra sull’IA, LeCun è quindi uno dei principali antagonisti del CEO di OpenAI, Sam Altman, e del CEO di Tesla, Elon Musk, che postulano un imminente passo avanti verso un’intelligenza artificiale a livello umano. Una cosiddetta Artificial General Intelligence (AGI) sarebbe raggiungibile in un futuro relativamente prossimo, ha detto Altman al World Economic Forum di Davos all’inizio dell’anno. Yann LeCun ribatte continuamente che questo non è fondamentalmente possibile con gli approcci attuali.

Da decenni gli esperti di apprendimento automatico discutono se e come il pensiero umano possa essere replicato nelle macchine. Ma il tono si è inasprito.

Perché ora non è più solo la scienza a guidare lo sviluppo di un’intelligenza simile a quella umana nelle macchine. Numerose aziende hanno fatto della ricerca il loro modello di business. Da quando OpenAI ha rilasciato il suo famoso chatbot ChatGPT, la domanda che sorge quando si parla di Intelligenza Artificiale Generale è: è ancora scienza o già marketing?

Alcuni, come la ricercatrice statunitense e presidente della Signal Foundation, Meredith Whittaker, affermano che l’intelligenza artificiale stessa è diventata un termine di marketing. Le aziende non sono interessate a replicare l’intelligenza umana, ma piuttosto a far eseguire le loro attività da software.

Per molte applicazioni aziendali, sembra non importare se la macchina pensi davvero o solo sembri farlo. La domanda cruciale non è più se le macchine possono pensare, ma se sono in grado di svolgere compiti per i quali gli esseri umani dovrebbero pensare. E questo è già stato raggiunto in molti settori, come dimostra il test di Turing.

Dagli anni ’50, il test di Turing è stato considerato il punto di riferimento per determinare se le capacità di pensiero della macchina hanno raggiunto quelle umane. Il test è considerato superato se un essere umano, in un gioco di domande e risposte in determinate condizioni, non può più distinguere se sta parlando con un altro essere umano o con una macchina.

ChatGPT e sistemi di intelligenza artificiale simili superano regolarmente il test. Tuttavia, non pensano come un essere umano e a volte falliscono in compiti semplici come il cosiddetto principio del cassetto o della piccionaia: alla domanda “Se distribuisci cinque piccioni in tre piccionaie, ci saranno sempre due piccionaie in cui ci sono due piccioni?”, ChatGPT dice: “La risposta breve è ‘sì'”.

Inoltre, i modelli producono ripetutamente affermazioni completamente false, che nella scena sono chiamate “allucinazioni”. Un esempio spesso citato proviene da Google Gemini. Alla domanda su come fissare il condimento su una pizza, Gemini ha suggerito: con la colla.

Per capire come si possano verificare tali affermazioni, è utile dare un’occhiata al funzionamento dei modelli linguistici. A differenza della classica ricerca di Google, i modelli linguistici di grandi dimensioni non si basano su un indice di milioni di siti web che potrebbero citare. Invece, i modelli linguistici sono addestrati su enormi quantità di testo. In questo modo, imparano quali parole si presentano sempre insieme, in quale ordine e in quale contesto. Su questa base, calcolano la risposta parola per parola in base alla probabilità statistica. Se questa è corretta dipende essenzialmente dal fatto se e con quale frequenza la risposta corretta appare nei dati di addestramento.

Questo processo non ha fondamentalmente nulla a che fare con il pensiero umano. Ma deve farlo, se può comunque essere utilizzato per svolgere molti compiti umani? Imprenditori come Altman e Musk sono attaccati all’idea che sia solo una questione di potenza di calcolo, dati giusti e messa a punto per costruire modelli linguistici con capacità simili a quelle umane. Per eliminare gradualmente gli errori, OpenAI, ad esempio, impiega numerose persone in paesi a basso salario per controllare i dati di addestramento. Gli investitori finanziariamente forti sono attirati dalla promessa che un AGI sia a portata di mano.

Così Brad Lightcap, responsabile delle operazioni di OpenAI, ha dichiarato in un’intervista al Financial Times che la prossima generazione del modello GPT dell’azienda (GPT5) risolverà grandi problemi come il pensiero indipendente. Il capo del concorrente di OpenAI, Anthropic, Dario Amodei, e il CEO di Tesla, Musk, si sono pubblicamente impegnati nella previsione che un’IA a “livello umano” potrebbe essere sviluppata già nel 2025 o 2026. Musk afferma addirittura che l‘IA sarà allora “più intelligente della persona più intelligente”.

I ricercatori di punta sono molto più scettici degli imprenditori. Questo è dimostrato da un sondaggio delle università di Berkeley, Oxford e Bonn tra 1712 scienziati di alto livello nel campo dell’IA, pubblicato nel gennaio 2024. Secondo il sondaggio, gli intervistati vedono solo una probabilità del dieci percento che entro il 2027 ci saranno macchine in grado di svolgere qualsiasi compito immaginabile meglio degli esseri umani senza aiuto. Anche entro il 2047, hanno stimato questa probabilità solo al 50%.

Ma le promesse degli imprenditori statunitensi presenti nei media hanno suscitato aspettative più elevate. Anche prima delle presentazioni degli ultimi modelli linguistici di OpenAI e Meta (Facebook), si ipotizzava che questi potessero già essere in grado di “pensare e pianificare”. Alla fine, tuttavia, i modelli si sono rivelati solo marginalmente migliori dei loro predecessori, con delusione di molti osservatori.

Anche Mira Murati, Chief Technology Officer di OpenAI, ha recentemente ammesso in un’intervista alla rivista Fortune: “Abbiamo modelli capaci nei nostri laboratori, ma non sono così avanti”.

Questo conferma ciò che la scienza aveva già previsto: più grandi diventano i modelli, più diminuisce l’utilità di dati aggiuntivi e migliori. Questa relazione è suggerita anche da un documento di ricerca pubblicato da OpenAI nel 2020, quando l’azienda pubblicava ancora la sua ricerca ed era meno guidata commercialmente.

Lo scienziato dell’IA di Tubinga, Bernhard Schölkopf, ha contraddetto la percezione pubblica che lo sviluppo dell’IA potesse essere esponenziale: “Nessun modello in natura cresce esponenzialmente per sempre”. Si aspetta piuttosto una curva a collo di cigno, in cui una fase di ripido sviluppo è seguita da una fase di appiattimento. Tuttavia, non è chiaro in quale punto di questa curva si trovi attualmente lo sviluppo: “Quello che sappiamo da un punto di vista scientifico è che stiamo ancora utilizzando algoritmi piuttosto stupidi”.

Ricercatori come LeCun e Schölkopf ritengono che siano necessari approcci completamente nuovi per sviluppare macchine con intelligenza a livello umano. Diversi gruppi di scienziati stanno lavorando su idee diverse per raggiungere questo obiettivo.

L’approccio della cognizione incarnata
Un approccio perseguito dagli sviluppatori di IA in tutto il mondo è la rappresentazione fisica del corpo. I fautori della teoria dell'”organismo intero”, chiamata “cognizione incarnata” nella scienza, presumono che l’intelligenza non si sviluppi solo nel cervello, ma attraverso le interazioni con il mondo fisico. Collegando l’IA e la robotica, si dovrebbe creare un’intelligenza più robusta e versatile. Il motivo è che i robot possono acquisire ed elaborare dati multimodali come informazioni visive, uditive e tattili.

Questo approccio è perseguito dalle aziende di robotica Hanson Robotics e FigureAI, e anche la società di consulenza McKinsey scrive in un post sul blog: “Potremmo aver bisogno di approcci e robot completamente nuovi per raggiungere l’AGI”. Per sviluppare le stesse capacità cognitive degli esseri umani, i robot dovrebbero sperimentare il mondo fisico come noi.

L’approccio connessionista
La seconda grande corrente a cui aderiscono gli sviluppatori di IA in tutto il mondo è quella della replicazione di un intero cervello. I ricercatori di IA e neuroscienziati stanno cercando di replicare la struttura del cervello umano. Questo è stato parzialmente raggiunto con le reti neurali, che sono la base degli attuali modelli linguistici di grandi dimensioni. Ma i ricercatori vogliono andare oltre e collegare molte diverse unità neurali tra loro. Per fare ciò, vogliono replicare i circuiti nel cervello e anche l’architettura del cervello.

All’Università di Tubinga, Bernhard Schölkopf e i suoi gruppi di ricerca stanno studiando, tra le altre cose, la plasticità delle reti. Questa consente all’IA di adattarsi e imparare, in modo simile ai cervelli biologici.

L’approccio ibrido

Yann LeCun è convinto che l’IA debba imparare come un bambino attraverso il “vedere e toccare” per acquisire una comprensione del mondo fisico. In questo modo, combina l’approccio connessionista con l’approccio embodied e l’approccio multimodale, che presuppone che l’IA abbia bisogno di diverse fonti di dati per sviluppare l’intelligenza.

Secondo il ricercatore, anche gli esseri umani potrebbero assorbire molto di più attraverso le impressioni visive che attraverso le parole. “Un bambino di quattro anni è stato sveglio per circa 16.000 ore nella sua vita e il nervo ottico trasmette 20 megabyte di dati al cervello al secondo”, afferma LeCun. Di conseguenza, un bambino assorbe già più dati in un periodo di quattro anni di quanti siano i testi su Internet. LeCun conclude che l’intelligenza umana non può essere raggiunta solo attraverso l’addestramento con testi, che oggi costituiscono la maggior parte dei dati di addestramento.

Schölkopf ritiene che anche la conoscenza culturale – x – sia cruciale nel percorso verso un AGI. Questo è ciò che rende gli esseri umani intelligenti.

Tuttavia, l’attenzione e anche i fondi per la ricerca sono distribuiti in modo diseguale tra la moltitudine di approcci. Con OpenAI, Musk’s xAI, Anthropic e la società francese Mistral, le aziende di IA stanno concentrando miliardi di dollari di capitale su di sé, che, per quanto ne sappiamo, perseguono approcci simili. E LeCun e Schölkopf credono che potrebbero presto raggiungere i limiti dello sviluppo con questi approcci. Le ragioni di ciò, secondo i due ricercatori, sono, da un lato, che le aziende si concentrano maggiormente sui loro prodotti e sul loro marketing piuttosto che essere in grado di lavorare liberamente sull’innovazione. Inoltre, OpenAI e Co. sono proprio quegli attori che forniscono meno informazioni su quanto siano effettivamente progrediti nel percorso verso l’AGI.

È proprio questa segretezza il secondo motivo per cui LeCun e Schölkopf ritengono che le aziende attualmente sotto i riflettori dei media non saranno le prime a sviluppare un AGI. Perché per raggiungere l’AGI, crede Schölkopf, tutte le parti dovrebbero divulgare i loro progressi nel riconoscimento degli oggetti, nell’architettura, nella memoria e nel pensiero logico. Solo mettendo insieme tutti i pezzi del puzzle si otterrebbe alla fine una grande IA umana. Schölkopf ritiene quindi che né Sam Altman di OpenAI né Elon Musk di X.AI svilupperanno la prima AGI. Il vincitore sarà prodotto da “una combinazione di ricerca lungimirante nell’industria e nella ricerca accademica”. Schölkopf ritiene quindi che né Sam Altman di OpenAI né Elon Musk di X.AI svilupperanno la prima AGI. Il vincitore sarà prodotto da “una combinazione di ricerca lungimirante nell’industria e nella ricerca accademica”.

Handelsblatt, tutti i diritti riservati, 1-7-2024, traduzione per codice rosso, nlp