Intelligenza artificiale, non solo chat GPT: rischi e opportunità

di Paolo Arigotti

Questo non sarà un articolo dedicato ad aspetti di tipo tecnico o informatico, per quelli vi suggeriamo di approfondire con le tante pubblicazioni che se ne sono, e che se ne stanno occupando. A noi interessa, invece, parlare delle opportunità e dei rischi, reali o potenziali, collegati agli sviluppi, attuali e futuri, della cosiddetta intelligenza artificiale. Cominciamo col dire che lo stesso termine “intelligenza artificiale”, nato nel 1956 in occasione di un convegno organizzato a Dartmouth da J. McCarthy, è, con ogni probabilità, usato in modo improprio.

Il sempreverde dizionario Treccani[1] definisce l’intelligenza tout court come un complesso di facoltà psichiche e mentali che consentono di pensare, comprendere o spiegare i fatti o le azioni, elaborare modelli astratti della realtà, intendere e farsi intendere dagli altri, giudicare, e adattarsi all’ambiente. Sempre la Treccani, per “intelligenza artificiale”[2] intende la disciplina che studia se e in che modo si possano riprodurre i processi mentali più complessi mediante l'uso di un computer.

La domanda, a questo punto, è la seguente: possiamo parlare, prendendo come esempio l’arcinota chat GPT (neanche l’unica dedicata alla generazione di testi[3]), di applicativi che sono realmente in grado – chiaramente parliamo sempre per l’attuale – di riprodurre facoltà mentali o psichiche che appartengono (per ora) all’essere umano? Alan Turing, matematico e filosofo britannico morto nel 1954, considerato uno dei padri della moderna informatica, si fece più o meno la stessa domanda in un articolo pubblicato nel 1950 sulla rivista Mind, intitolato Computing machinery and intelligence: partendo dal dubbio (legittimo) se una macchina fosse in grado di pensare, Turing elaborò un test, che da lui prese il nome e nel tempo più volte rivisionato[4], il quale, basandosi sul principio dell’assimilazione, sarebbe stato in grado di stabilire quanto il comportamento di una macchina sarebbe “intelligente”, nel senso di avvicinarsi (in tal senso si parla di imitazione/assimilazione) al pensiero umano.

In altre parole, una macchina sarebbe tanto più “intelligente”, quanto più sarebbe indistinguibile dal comportamento (e ragionamento) umano. Una sorta di esperimento in tal senso fu compiuto nel 1997, quando il computer Deep Blue sconfisse il campione mondiale di scacchi Garry Kasparov: per la cronaca, il campione sollevò obiezioni circa presunti “aiutini” umani, che in sostanza avrebbero avuto lo scopo di promuovere l’applicativo e l’azienda (IBM) che lo aveva prodotto: comunque siano andate le cose, restava il fatto che per la prima volta un computer dimostrava un’abilità logica propria del genere umano (quella nel gioco degli scacchi)[5]. L’episodio venne salutato (e propagandato) come l’inizio di una nuova era, mentre i critici (a cominciare dallo stesso Kasparov) insistevano sull’esigenza di difendere la “razza umana” contro l’avanzare delle nuove tecnologie.

Se c’è una cosa nella quale gli uomini sono sempre stati bravi è stata quella di inventare trame o scenari distopici intorno allo sviluppo delle macchine e delle nuove tecnologie, in particolare riguardo ai pericoli insiti in tutto ciò. Ora, non sempre si tratta di costruzione condivisibili, molte frutto di immaginazione o voglia di stupire: diceva una nota pubblicità degli anni Ottanta[6] noi siamo scienza, non fantascienza. È indiscutibile che di fronte alle innovazioni si sia sempre manifestata una certa tendenza alla ritrosia e alla paura, tanto che è stato coniato perfino un termine scientifico per indicare questi timori: la neofobia, intesa come l’avversione per qualunque cosa che è nuovo, forse un retaggio dell’infanzia e/o di alcuni comportamenti del mondo animale. Pensiamo, così, all’avvento a suo tempo della televisione, ancora oggi[7] demonizzata o messa all’indice dai critici, in quanto ritenuta fonte di una serie di pericoli.

Con questo non vogliamo assolutamente liquidare con facili etichette tutte le tesi che sono state espresse nel tempo, alcune delle quali indubbiamente contenenti spunti di riflessione o dati di fatto difficilmente contestabili: pensiamo a un grande dei nostri tempi, Pier Paolo Pasolini, che tra i primi denunziò il rischio di una massificazione e omologazione del pensiero causata dai media. Riferendosi nello specifico al mezzo televisivo, Pasolini scriveva che la rivoluzione del sistema d’informazioni è stata ancora più radicale e decisiva. Per mezzo della televisione, il Centro ha assimilato a sé l’intero paese che era così storicamente differenziato e ricco di culture originali. Ha cominciato un’opera di omologazione distruttrice di ogni autenticità e concretezza. E verrebbe da chiedersi cosa avrebbe scritto o detto su Internet, sui social o sull’intelligenza artificiale...

Senza voler entrare nel merito del pensiero di Pasolini, ci limiteremo a notare che, se lui sosteneva l’esistenza di un rischio di “massificazione” – daje torto ci verrebbe da dire… - parlando della cosiddetta intelligenza artificiale si potrebbe, secondo i critici, andare ben oltre, forse troppo. Non si tratterebbe tanto o solo di allineare il pensiero della massa, quanto di annullarlo, “sostituendolo” con quello degli applicativi. In altri termini, tra i tanti pericoli che in molti vi intravvedono, ci sarebbe quello di contribuire all’istupidimento delle persone. Prima di proseguire, facciamo una precisazione: nessuno qui contesta il mezzo, ma casomai l’utilizzo che ne viene fatto: è un discorso fatto a suo tempo per la televisione o per Internet, e oggi per le IA; del resto, per fare un esempio calzante, basti pensare all’energia atomica, che si presta all’utilizzo pacifico o per finalità belliche.

Secondo noi il percorso logico non dev’essere condotto prendendo spunto dalle trame affascinanti di ottimi romanzi o film distopici o di fantascienza di successo, che descrivono un mondo soggiogato e dominato dalle macchine, nel quale l’uomo – ammesso che sopravviva – viene ridotto ai minimi termini. Ci sembra molto più utile, concentrarci su rischi e pericoli molto più concreti e immediati, ben lungi da presunti deliri “complottisti” (termine che, per la cronaca, a noi non piace!).

I progetti legati allo sviluppo delle IA vedono coinvolti i giganti del web: da Google (con Deep Mind) a Microsoft (con OpenAI). Geoffrey Hinton[8], 75 anni, psicologo e informatico naturalizzato canadese, considerato tra i maggiori esperti al mondo per lo sviluppo delle tecniche di apprendimento, si è recentemente dimesso da Google, a suo dire per avere mano libera nel denunziare i rischi collegati alle IA. Hinton, pur riconoscendo che tali applicativi non siano (ancora) più intelligenti di noi, paventa il pericolo che possano un domani diventarle (non che in molti casi ci voglia molto, ma lasciamo stare le battute). Hinton si è spinto a dire che ci sarebbe il rischio, da un certo momento in avanti, di "non riconoscere più cosa è vero".

Prendendo spunto dalle parole di Hinton, circa le quali ha espresso il suo di apprezzamento, Jeff Dean, capo scienziato di Google, ha definito molto responsabile l’approccio dell’azienda alle IA. E tra i sostenitori delle tesi di Hinton troviamo un altro pezzo da novanta: Ellon Musk il quale, da poco padrone di Twitter, ha scritto di recente una lettera a politici e accademici, chiedendo una moratoria di sei mesi per l’addestramento di chat GPT, paventando il rischio di gravi sconvolgimenti politici ed economici[9].

Ora, se come diceva qualcuno a pensar male si fa peccato, ma spesso ci si azzecca, si potrebbe pensare che la richiesta di moratoria potrebbe rivelarsi utile a chi voglia sviluppare propri prodotti, alternativi e ulteriori rispetto a quelli disponibili, coprendo le reali intenzioni con preoccupazioni di tipo etico: non entriamo nel merito, ci limiteremo a ricordare che lo stesso Musk, dopo aver contribuito con migliaia di ricercatori ed esperti a varare nel 2017 il manifesto intitolato “23 principi di Asilomar”[10], una sorta di vademecum di principi per un corretto sviluppo delle IA, ha dato vita recentemente a una sua nuova iniziativa chiamata X.AI[11] col fine di fare concorrenza a Microsoft.

Chiaramente parliamo di scenari in divenire e in continua evoluzione, ma è certo che pensare di poter fermare il progresso – la classica battaglia del Don Chisciotte di turno – sarebbe semplicemente utopistico, ragion per cui sarebbe meglio impegnarsi per coniugare le ragioni della scienza, con quelle del buon senso, tenendo sempre a mente che le tecnologie sono un’invenzione umana e che in funzione dell’uomo devono essere concepite e utilizzate, mai subite.

Fermo restando tutto il peggio che si può dire o pensare – siamo in democrazia, giusto? – su scenari stile presunta ibridazione uomo-macchina, in parte descritti nel libro di Karl Schwab La quarta rivoluzione industriale[12], contenente ampi riferimenti all’intelligenza artificiale, uno degli aspetti più controversi riguarda il sempre maggior livello di controllo e sorveglianza insito in certi meccanismi. Un esempio viene dalle nuove tecniche di riconoscimento facciale, contemplate da nuovi sistemi varati nell’ambito del ministero dell’Interno[13], in grado di mettere seriamente a rischio la nostra privacy, in nome di finalità astrattamente condivisibili, come il contrasto all’illegalità.

Se come scriveva Niccolò Machiavelli il fine giustifica i mezzi, non va parimenti dimenticato che il grande pensatore del Rinascimento scrisse Il Principe proprio per denunciare come il potere abusi di certi strumenti per perseguire i suoi scopi. E non è una preoccupazione solo nostra.

Perfino George Soros, patron del World Economic Forum, metteva in guardia tempo fa contro i pericolo del controllo sociale, citando il caso cinese, collegandolo proprio alle nuove tecnologie[14], mentre Sam Altman, “papà” di OpenAI descriveva scenari alla terminator, paventando come la creazione della nuova e superiore Intelligenza artificiale sarebbe persino in grado di mettere in pericolo l’esistenza umana[15]. Sulla stessa linea Yuval Noah Harari, uno dei personaggi più vicini a Soros, che parla dei pericoli insiti in applicativi capaci di decidere tutto da soli, rendendo inutile l’essere umano, minacciando così la stessa sopravvivenza della nostra specie[16]. Per quanto si tenda, sbagliando, ad associare le IA a chat GPT - forse perché se ne parla molto o perché è stata resa disponibile a tutti (almeno nella versione base) – in realtà le sue applicazioni sono molteplici, andando ben al di là della generazione di testi o delle risposte automatiche; ricordiamo che da poco, in Italia, è venuto meno il blocco imposto dal garante della privacy per chat GPT[17].

Pensiamo, oltre agli esempi già fatti, al settore della difesa. A molte persone non dirà molto il nome di Stanislav Petrov, eppure in tanti – compresi coloro che nel 1983 non erano ancora nati – dovrebbero essergli grati. Petrov era un ufficiale delle forze armate dell’allora Unione Sovietica che, in servizio il 26 settembre 1983, vide nel proprio monitor del sistema satellitare quello che, a tutti gli effetti, sembrava un attacco missilistico statunitense, a fronte del quale sarebbe dovuta scattare l’immediata rappresaglia. Essendo un essere umano, e non una macchina che esegue istruzioni, Petrov[18], si rese conto che si trattava di un errore (non c’era alcun attacco in corso) e non fece scattare la rappresaglia: cosa sarebbe accaduto se, al contrario, la decisione fosse stata attribuita a una IA? Forse non saremmo neanche qui a parlarne… Per la cronaca l’ufficiale venne ricompensato col demansionamento e fu indotto di lì a poco alle dimissioni (bella gratitudine, verrebbe da dire), mentre gli americani poche settimane dopo fecero uscire nelle sale – ironia o casualità della storia del cinema? – il film The day after, che descriveva lo scenario apocalittico seguito allo scontro nucleare tra le due superpotenze. Per restare al genere, una pietra miliare resta 2001 – Odissea nello spazio[19], film del 1968 diretto da Stanley Kubrick, nel quale il megacomputer HAL, dotato di intelligenza artificiale, decide di eliminare l’equipaggio dell’astronave per impedire la sua disattivazione (la sua “morte”).

Ancora prima, siamo nel 1954, lo scrittore Fredric Brown pubblicò il racconto La risposta[20] dove si narrava di un supercomputer in grado di svelare il senso stesso dell’esistenza: peccato che dopo che la macchina, rispondendo alla domanda del suo creatore circa l’esistenza di Dio, replicava “Si, ora Dio esiste” allo scienziato venisse qualche dubbio, anche se il suo tentativo di disattivarlo finiva molto male, con un fulmine che inceneriva lo sfortunato scienziato.

Abbiamo fatto questi esempi, molti altri se ne potrebbero trarre dalla letteratura e dalla cinematografia, solo per evidenziare come l’argomento del rapporto uomo-macchina, assieme ai suoi rischi, abbia da sempre affascinato e allo stesso tempo inquietato, il che spiega, almeno in parte, i timori attuali (e futuri) che circondano le IA (o presunte tali). Ma come dicevamo, preferiamo attenerci a dati concreti. Concentriamoci su un altro “piccolo” problema collegato alle IA, quello del lavoro.

La storia del conflitto tra occupazione e nuove tecnologie è risalente. Se fino a oggi si era sempre sostenuto che le macchine sarebbero servite ad alleggerire l’uomo dal peso delle occupazioni più gravose e che la perdita di posti di lavoro sarebbe stata compensata dalle opportunità offerta delle nuove professioni[21], specie quelle di ordine tecnico e intellettuale, ora le cose stanno cambiando, e molto rapidamente. Pensiamo a professioni come il giornalista, il magistrato o il medico. Se fino a ora era impensabile che un applicativo potesse sostituire queste figure, nel momento in cui un generatore di testi fosse in grado di scrivere un articolo o esprimere una valutazione di ordine giuridico, o un computer (o un robot) fossero in grado di fare diagnosi[22], o interventi chirurgici[23], è evidente che le cose cambierebbero. Questo è già oggi in parte realtà, ma il discorso si complica se o qualora, in prospettiva e grazie ai nuovi sviluppi, certe abilità raggiungessero stadi assai più elevati: per restare a chat GPT, circa la quale si parla già di centinaia di milioni di utenti nei primi mesi di rilascio, è in uscita la versione 4.0[24], che a quanto pare sarà in grado di fare cose mirabili.

Nel frattempo, che molti posti di lavoro si siano persi (o si perderanno) a causa dell’avvento delle nuove tecnologie è un dato di fatto. Nel 2017 l’Assolombarda parlava di 3,2 milioni di posti di lavoro a rischio nel nostro paese nei prossimi 15 anni, proprio a causa dell’automazione, con tutta una serie di ricadute su consumi e PIL nazionale[25]. In un recente studio[26], l’Università della Pennsylvania individua una serie di professioni - matematici, ingegneri, web designer, amministrativi, contabili, scrittori – che subiranno i maggiori cambiamenti per effetto dello sviluppo dell’intelligenza artificiale, pur ribadendo che non ci sarà nuova disoccupazione, quanto piuttosto una riconversione dei lavoratori, per i quali si propone un’adeguata formazione per fronteggiare i mutamenti in corso. Per assistere a ondate di licenziamenti, a ogni modo, non è stato necessario attendere lo sviluppo delle IA: già a inizio anno, nella mitica Silicon Valley, in migliaia hanno perso il lavoro, paradossalmente proprio in quei settori che dovrebbero essere, secondo quanto ci viene detto, la fucina della futura occupazione[27].

La testata Kuwait news ha già fatto il grande balzo, mandando in onda Fedha, il primo “mezzobusto” creato dall’IA, che legge notizie e bollettini[28], mentre la casa editrice multinazionale Axel Springer ha lasciato a casa diversi redattori[29], sostituiti indovinate con chi? Il Financial Times[30], sottolineando l’impatto positivo delle ICT in termini di crescita del PIL globale, deve riconoscere che qualcosa come i 2/3 dei posti di lavoro che esistono attualmente potrebbero essere automatizzati, con centinaia di milioni di licenziamenti in tutto il mondo. Forse un risultato non del tutto inatteso, visto che già c’è chi parla di reddito universale per compensare i tanti che perderanno il posto per via della rivoluzione tecnologica[31]. E scenari non migliori vengono disegnati da un rapporto di McKinsey[32], secondo il quale qualcosa come 6 lavori su 10 degli attuali sono destinati a sparire nel prossimo cinquantennio, o quello della Oxford University (2015)[33] che paventava il rischio sostituzione per quasi un lavoratore USA su due.

Resta da esaminare il capitolo dedicato alla libertà di espressione, a cominciare dal mondo dei social. È risaputo come, specie in epoca pandemica, l’azione dei cosiddetti algoritmi (sempre d’intelligenza artificiale si parla) abbia prodotto rimozione di contenuti e/o di profili, mentre lo stesso Mark Zuckerberg, patron di Facebook, ha ammesso simili episodi nel triennio precedente [34]. In definitiva, si profila un quadro assai poco incoraggiante, qualunque opinione si abbia sulle IA, specie se si rivelassero esatte le considerazioni di Erik Brynjolfsson, Andrew McAfee, che nel loro libro La nuova rivoluzione delle macchine: Lavoro e prosperità nell’era della tecnologia trionfante[35] (2015), descrivono un quadro di crescente disoccupazione e diseguaglianze. E per chi crede che la trascendenza sia al sicuro, sarebbe il caso di provare a farsi due chiacchiere con (san) Padre Pio[36] .

Arrivando alle conclusioni, a parte ribadire quanto abbiamo detto all’inizio, vale a dire mai demonizzare il mezzo, ma semmai l’utilizzo che ne viene fatto, a nostro parere è proprio su questo punto che risiede il fulcro della questione. Le tecnologie, delle quali le IA sono una delle tante espressioni, sono state ideate per l’uomo e in funzione dell’uomo, non viceversa, ragion per cui sta all’uomo decidere dove e fin quando spingersi, così come sta a tutti noi vigilare affinché certi limiti non vengano mai oltrepassati. Una lettura interessante, in tal senso, potrebbe rivelarsi The innovation illusion[37], pubblicazione del 2016 di Frederik Erixon e Bjorn Weigel, dove si affermava, tra l’altro, che proprio un eccesso di ottimismo (o di superficialità) potrebbe condurre a scenari poco edificanti. Non ci sembra inutile citare in chiusura una recente circolare del ministero della pubblica istruzione (e del merito)[38], che regolando l’utilizzo in classe di telefoni cellulari e altri dispositivi elettronici, paventa i rischi di un loro abuso in termini di “progressiva perdita delle facoltà mentali essenziali… che per millenni hanno rappresentato quella che sommariamente chiamiamo intelligenza”. Un consiglio utile non solo per gli studenti? Come scriveva lo scrittore (tanto per cambiare, di fantascienza) Arthur Clarke, declinando la sua terza “legge” “qualunque tecnologia sufficientemente avanzata è indistinguibile dalla magia”: giova ricordare che ogni bravo “mago” ha i suoi trucchi, ma basta assistere allo spettacolo senza farsene “assorbire” del tutto.

FONTI

www.treccani.it/enciclopedia/intelligenza

www.treccani.it/enciclopedia/intelligenza-artificiale

www.wallstreetitalia.com/chat-gpt-quali-soluzioni-alternative-esistono/

www.treccani.it/enciclopedia/intelligenza-artificiale

www.liberoquotidiano.it/news/esteri/35673159/intelligenza-artificiale-denuncia-geoffrey-hinton-enormi-pericoli.html

www.repubblica.it/tecnologia/2023/03/29/news/musk_stop_sviluppo_chatgpt_rischi_umanita-394154071/#:~:text=%E2%80%9CNegli%20ultimi%20mesi%2C%20i%20laboratori,o%20controllare%20in%20modo%20affidabile%E2%80%9D

web.archive.org/web/20160322125244/http://www.doxaliber.it/stanislav-petrov-il-russo-che-salvo-il-mondo/179

www.agi.it/estero/soros_contro_xi-4901024/news/2019-01-25/

www.money.it/perche-anche-il-fondatore-di-openai-sam-altman-teme-lo-scenario-terminator

www.telegraph.co.uk/news/2023/04/23/yuval-noah-harari-i-dont-know-if-humans-can-survive-ai/

quifinanza.it/lavoro/linnovazione-tecnologica-non-brucia-posti-di-lavoro-crea-nuove-opportunita/595669/

hudi.it/ai/i-principi-di-asilomar-per-lintelligenza-artificiale-oltre-i-pessimismi/

www.agendadigitale.eu/sanita/lia-come-supporto-alla-diagnosi-la-medicina-intelligente-e-il-nodo-dellinterpretazione/

www.ieo.it/it/PER-I-PAZIENTI/InPrimoPiano/ChirurgiaRobotica/

www.assolombarda.it/centro-studi/i-posti-di-lavoro-a-rischio-automazione-in-italia

arxiv.org/pdf/2303.10130.pdf

www.money.it/londa-dei-licenziamenti-investe-la-silicon-valley

www.ft.com/content/7dec4483-ad34-4007-bb3a-7ac925643999

www.redhotcyber.com/post/chatgpt-inizia-ad-eliminare-posti-di-lavoro-due-testate-giornalistiche-pronte-ai-licenziamenti/

www.repubblica.it/economia/rapporti/paesedigitale/trend/2017/09/28/news/_intelligenza_artificiale_reddito_universale_per_i_disoccupati_-176723272/

www.mckinsey.com/featured-insights/digital-disruption/harnessing-automation-for-a-future-that-works/de-DE

www.oxfordmartin.ox.ac.uk/publications/technology-at-work-the-future-of-innovation-and-employment/

“Il moderno prometeo artificiale”, rivista mensile Visione, un altro sguardo sul mondo (volume secondo), 2023

[1] www.treccani.it/enciclopedia/intelligenza

[2] www.treccani.it/enciclopedia/intelligenza-artificiale

[3] www.wallstreetitalia.com/chat-gpt-quali-soluzioni-alternative-esistono/

[4] it.wikipedia.org/wiki/Test_di_Turing

[5] www.lastampa.it/cultura/2017/09/13/news/deep-blue-vs-kasparov-scacco-matto-all-intelligenza-umana-1.34414089/

[6] www.youtube.com/watch?v=tFXd1LS5_A0

[7] www.medicina33.com/articolo/la-televisione-pu%C3%A0-danneggiare-la-salute-quali-sono-i-rischi-della-teledipendenza-968/

[8] www.liberoquotidiano.it/news/esteri/35673159/intelligenza-artificiale-denuncia-geoffrey-hinton-enormi-pericoli.html

[9] www.repubblica.it/tecnologia/2023/03/29/news/musk_stop_sviluppo_chatgpt_rischi_umanita-394154071/#:~:text=%E2%80%9CNegli%20ultimi%20mesi%2C%20i%20laboratori,o%20controllare%20in%20modo%20affidabile%E2%80%9D.

[10] hudi.it/ai/i-principi-di-asilomar-per-lintelligenza-artificiale-oltre-i-pessimismi/

[11] www.wired.it/article/musk-xai-app-totale-intelligenza-artificiale/

[12] Edito in Italia da Franco Angeli (2020).

[13] www.interno.gov.it/it/notizie/sistema-automatico-riconoscimento-immagini-futuro-diventa-realta

[14] www.agi.it/estero/soros_contro_xi-4901024/news/2019-01-25/

[15] www.money.it/perche-anche-il-fondatore-di-openai-sam-altman-teme-lo-scenario-terminator

[16] www.telegraph.co.uk/news/2023/04/23/yuval-noah-harari-i-dont-know-if-humans-can-survive-ai/

[17] www.wired.it/article/chatgpt-torna-disponibile-italia-openai-garante-privacy/

[18] web.archive.org/web/20160322125244/http://www.doxaliber.it/stanislav-petrov-il-russo-che-salvo-il-mondo/179

[19] www.mymovies.it/film/1968/2001odisseanellospazio/

[20] formazione.indire.it/paths/testo-4-fredric-brown-la-risposta

[21] quifinanza.it/lavoro/linnovazione-tecnologica-non-brucia-posti-di-lavoro-crea-nuove-opportunita/595669/

[22] www.agendadigitale.eu/sanita/lia-come-supporto-alla-diagnosi-la-medicina-intelligente-e-il-nodo-dellinterpretazione/

[23] www.ieo.it/it/PER-I-PAZIENTI/InPrimoPiano/ChirurgiaRobotica/

[24] openai.com/gpt-4

[25] www.assolombarda.it/centro-studi/i-posti-di-lavoro-a-rischio-automazione-in-italia

[26] arxiv.org/pdf/2303.10130.pdf

[27] www.money.it/londa-dei-licenziamenti-investe-la-silicon-valley

[28] stream24.ilsole24ore.com/video/tecnologia/in-kuwait-appare-fedha-presentatrice-generata-l-ia/AEaHPDGD?refresh_ce=1

[29] www.redhotcyber.com/post/chatgpt-inizia-ad-eliminare-posti-di-lavoro-due-testate-giornalistiche-pronte-ai-licenziamenti/

[30] www.ft.com/content/7dec4483-ad34-4007-bb3a-7ac925643999

[31] www.repubblica.it/economia/rapporti/paesedigitale/trend/2017/09/28/news/_intelligenza_artificiale_reddito_universale_per_i_disoccupati_-176723272/

[32] www.mckinsey.com/featured-insights/digital-disruption/harnessing-automation-for-a-future-that-works/de-DE

[33] www.oxfordmartin.ox.ac.uk/publications/technology-at-work-the-future-of-innovation-and-employment/

[34] www.radioradio.it/2023/06/zuckerberg-confessa-tutto-sulla-censura-online-lestablishment-ci-chiese-di-cancellare-anche-cose-vere/

[35] books.google.it/books?id=Lz01DwAAQBAJ

[36] www.quotidianodipuglia.it/regione/intelligenza_artificiale_chat_gpt_padre_pio_come_funziona-7265082.html

[37] yalebooks.yale.edu/book/9780300230475/the-innovation-illusion/

[38] www.miur.gov.it/-/stop-ai-cellulari-in-classe-circolare-del-ministero-inviata-alle-scuole-valditara-tuteliamo-l-apprendimento-dei-ragazzi-e-il-rispetto-per-i-docenti-

Le più recenti da Spunti di riflessione

On Fire

Alessandro Orsini - Una risposta, molto rispettosa, a Liliana Segre

  di Alessandro Orsini*  Risposta, molto rispettosa, a Liliana Segre. Il dibattito sul genocidio a Gaza, reale o presunto che sia, non può prescindere dalle scienze sociali. Nel suo...

La doppia Waterloo della Francia

   di Giuseppe Masala per l'AntiDiplomatico In più di una circostanza ho scritto che oltre agli USA a vivere una situazione estremamente complessa in materia di conti con l'estero (debito/credito...

L'Europa ha perso la guerra in Ucraina (ma potrebbe finire anche peggio)

  di Clara Statello per l'AntiDiplomatico L’Unione Europea è stata sconfitta nella guerra in Ucraina. Lo ha detto domenica sera il premier ungherese Victor Orban parlando al canale...

Prof. Sachs: "La decisione di rovesciare la Siria è partita da Obama su ordine di Israele"

  Quelli che seguono sono i 13 minuti più importanti che ascolterete per comprendere che cosa sia successo in Siria. Chi siano i responsabili, il movente, il mandante e quando tutto ha avuto...

Copyright L'Antidiplomatico 2015 all rights reserved
L'AntiDiplomatico è una testata registrata in data 08/09/2015 presso il Tribunale civile di Roma al n° 162/2015 del registro di stampa