Le tecnologie esponenziali cambieranno il nostro mondo, per sempre. Questa è la nostra opinione, come ottimisti tecnologici.
Ora, è sempre bene fare un controllo di sanità mentale, o almeno ascoltare il punto di vista contrario. Abbiamo contattato Daron Acemoglu, che è un Institute Professor di Economia al Massachusetts Institute of Technology (MIT), un autore di best-seller, un oratore di fama mondiale e il destinatario di diversi premi prestigiosi, tra cui la John Bates Clark Medal nel 2005, assegnata ogni due anni al miglior economista degli Stati Uniti sotto i 40 anni, dall’American Economic Association. Il suo curriculum è impressionante, e Acemoglu è oggi uno degli economisti più citati al mondo.
Questo è lo scambio con il Maestro.
Quali tecnologie esponenziali cambieranno il nostro mondo, secondo te, entro il 2030 – tra Blockchain, AI, Spatial Computing, Quantum?
Difficile da dire. Tutte queste tecnologie sono molto pubblicizzate. Quali tecnologie prospereranno e troveranno applicazioni di impatto resta da vedere. Non credo che la blockchain abbia il potenziale per avere effetti pervasivi tranne in alcune applicazioni ristrette. AI è una storia diversa. Anche se gran parte di ciò che viene scritto e detto sull’AI è un’esagerazione, non c’è dubbio che l’AI stia avanzando rapidamente e che venga implementata in molti settori. Solo su questa base, mi aspetto che avrà un impatto su molti settori dell’economia, inclusi i social media, la comunicazione e la gestione delle risorse umane. Se possa penetrare in altre attività, come la finanza, il diritto, l’istruzione e la sanità, resta da vedere. Ancora più importante, anche se dovesse essere ampiamente utilizzata in settori come l’istruzione e la sanità, c’è una grande differenza tra un buon uso e un cattivo uso. Ad esempio, distribuire ChatGPT a milioni di studenti e incoraggiarli a imparare dal chatbot piuttosto che dai loro insegnanti è facile. Assicurarsi che apprendano il materiale giusto e che imparino in modo efficace è molto più difficile.
L’IA è la terra del plausibile, ma non del redditizio per ora. Qual è il modello di business per rendere la tecnologia AI finanziariamente sana per tutti?
Lo direi diversamente. Al momento, l’unico posto dove l’IA può essere utilizzata in modo redditizio è nei social media e nelle attività di tipo ricerca, e anche i loro profitti possono derivare da usi manipolativi (deep fakes, raccolta estensiva di informazioni, violazioni del copyright ecc.). La domanda chiave è se possiamo trovare una direzione socialmente benefica dell’IA dove la tecnologia sostituita venga impiegata per fornire migliori informazioni agli esseri umani in modo che possano prendere decisioni migliori e diventare capaci di svolgere compiti più sofisticati. Questo non è chiaro e purtroppo non è l’area in cui l’industria ha molto interesse.
Non vedo la trasformazione tecnologica e culturale della società e dell’economia avvenire senza una revisione dei nostri diritti di proprietà; cioè, ho bisogno di possedere i miei dati medici o la mia agenzia digitale, e di essere compensato per questo, se l’AI o altri stack tecnologici useranno quei (miei) dati per apprendere e servire la società in generale con prodotti e servizi migliori. Vedi questo accadere? Meta, Alphabet o Microsoft, per esempio, possono accettare il fatto che dovranno pagare più stakeholder di quanto facciano oggi? È un’illusione?
Assolutamente. I dati sono un input cruciale per l’IA, e al momento non esiste né un mercato per i dati né diritti di proprietà sui dati né incentivi per le persone a creare dati di alta qualità. Questo è sia ingiusto (i dati delle persone vengono rubati) sia improduttivo (i modelli di IA vengono addestrati su dati di bassa qualità, contribuendo alle allucinazioni e ad altri problemi dei modelli disponibili). La soluzione deve coinvolgere mercati dei dati e diritti di proprietà sui dati. Ma è complicato, perché i diritti di proprietà individuali non funzioneranno. Miliardi di persone producono dati preziosi, ma transare con miliardi di persone sarebbe proibitivamente costoso. Più in generale, molte persone producono dati altamente sostituibili (tutti possono riconoscere un gatto, quindi le piattaforme possono mettere un gruppo di utenti contro un altro per abbassare il prezzo dei dati). Quindi, abbiamo bisogno di una nuova infrastruttura per i mercati dei dati con proprietà collettiva dei dati, ad esempio, nello stesso modo in cui la Writers Guild of America svolge il ruolo di intermediario proteggendo i diritti degli artisti creativi e inducendo un tipo di proprietà collettiva.
Pensi che il sistema finanziario e bancario accetterà a un certo punto le criptovalute, o anche solo bitcoin? Qual è la tua opinione sul futuro del sistema finanziario, che dovrebbe essere aperto a tutti, e dove le commissioni finanziarie dovrebbero diventare una commodity, cioè pari a zero?
Spero di no. Al momento, le criptovalute sono preziose per tre semplici ragioni: permettono attività illecite; c’è un certo premio perché se una di esse diventasse ampiamente accettata, l’azienda responsabile diventerebbe favolosamente ricca; e c’è una componente di bolla in molte criptovalute, con investitori creduloni che a volte vengono incoraggiati a pagare valutazioni eccessive per alcune valute. Nessuna di queste fonti di valutazione è socialmente benefica. La mia opinione è che le criptovalute potrebbero essere utili in alcune circostanze molto ristrette, ma dovrebbero essere fortemente regolamentate.
Pensi che la sostenibilità abbia avuto un cattivo marketing finora? Non dovremmo parlare di una trasformazione totale della tecnologia e del marketing del mondo, dove il mondo è gestito in modo più efficiente, piuttosto? Gli sostenitori della sostenibilità dovrebbero guardare alla tecnologia come l’unico modo per rendere questo mondo meno intensivo in termini di risorse e meno parziale, e smettere di parlare di ESG come un elemento separato nella nostra lista di cose da fare?
ESG è un miscuglio di molte cose diverse, molto mal specificate. Al momento, consente semplicemente ai manager di fare come vogliono. Gli investitori che si preoccupano del bene sociale devono essere una componente importante dell’economia di mercato nel 21° secolo. Ad esempio, credo che la pressione degli investitori contro le compagnie di combustibili fossili potrebbe essere piuttosto efficace. Ma questo richiede un insieme molto chiaro di linee guida con metriche misurabili. Nel caso delle emissioni di carbonio, possiamo farlo. Quindi, la mia preferenza sarebbe abbandonare ESG e concentrarsi sul carbonio e forse su alcune altre questioni importanti, come le pratiche lavorative (ad esempio, se le aziende stanno creando ambienti altamente insicuri per i lavoratori o esercitano pressioni coercitive sui loro dipendenti).
Il EU AI Act sembra essere l’unica regolamentazione con una certa sostanza a livello globale. Stiamo guardando a un mondo in cui i diritti degli individui saranno sacrificati in nome del progresso, se guardiamo al caso degli Stati Uniti e della Cina? Chi stabilisce le linee guida su cosa dovrebbe fare l’AI?
Sì assolutamente, questo è il vero pericolo e la Cina è improbabile che svolga un ruolo di leadership qui. Il governo cinese è il più grande collezionista di dati. Il Partito Comunista Cinese è improbabile che sia interessato a proteggere i diritti individuali, e l’evoluzione dell’industria tecnologica in Cina negli ultimi due decenni ha creato una cultura in cui la raccolta di dati intrusiva e la sorveglianza sono diventate normalizzate. I regolatori statunitensi sono ancora altamente soggetti ai capricci e ai desideri dell’industria tecnologica. Finora la leadership per frenare le pratiche abusive nell’IA e nell’industria tecnologica in generale deve venire dall’Europa. Questo non è sostenibile se l’Europa stessa non diventa un grande giocatore nel campo dell’IA, e non sembra che questo sarà facile. La speranza è che il pendolo politico degli Stati Uniti oscilli a favore di una regolamentazione più robusta e di una minore influenza delle aziende tecnologiche sulla politica, e nel frattempo, l’Europa inizierà a diventare un innovatore, non solo un regolatore, dell’IA.
Sei ottimista o pessimista riguardo al futuro del mondo?
Nessuno dei due. È possibile utilizzare l’IA in modo pro-lavoratore. È possibile utilizzare l’IA per supportare la democrazia e una migliore comunicazione. È possibile utilizzare l’IA in modo coerente con i diritti individuali, la privacy e l’autonomia individuale. Ma no, non stiamo andando in quella direzione. Quindi, se credo che non ci sarà una grande reindirizzazione della tecnologia e nessun grande cambiamento nelle istituzioni negli Stati Uniti e altrove, sarei molto pessimista. Ma mi aggrappo alla speranza che sia possibile per noi fare una correzione di rotta, frenare i giganti della tecnologia e iniziare a investire in IA che sia buona per le persone (e nel processo anche abbandonare sogni folli sull’intelligenza artificiale generale e disilluderci della nostra continua fiducia nei giganti della tecnologia).