Mentre Donald Trump porta avanti l’ «America’s AI Action Plan» e ora che l’IA generativa è alla portata di tutti, giornali e media vari si stanno affollando di esperti, o sedicenti tali, che con sicumera si lanciano in affermazioni sulla differenza tra «umano» e «macchina» mostrando, a titolo di prova, come gli attuali sistemi incorrano in banali errori, imprecisioni, «allucinazioni», polarizzazioni, etc. Anche eminenti accademici si accingono a convincerci che l’«IA scrive ma non capisce», che abbiamo a che fare con un «pappagallo stocastico» o che le macchine non hanno «comprensione» e «non saranno mai come noi». Questi sistemi certamente compiono errori, ma non solo perché sono «sistemi statistici» bensì perché il lasso di tempo tra la sperimentazione e la commercializzazione ubiqua è quasi nullo. In tutti gli ambiti della tecnologia ormai è così: acquistiamo prodotti che continuano ad essere migliorati, corretti o aggiornati quando già ne siamo in possesso.
L'IA è differente dall'umano come ognuno di noi – in quanto individuo – è differente da ogni altro individuo. È inutile lanciarsi in differenze che si basano sul voler trovare una caratteristica comune agli umani e una caratteristica comune alle macchine (per poi confrontarle) poiché si incorre nell'errore di assolutizzare caratteri categoriali, come empatia, intelligenza, etc. di cui non abbiamo una precisa definizione e metodi di misura. Se ci guardiamo intorno e osserviamo ciò che succede intorno a noi e nel mondo, di empatia e intelligenza ne scorgiamo ben poca. Il punto è che tali affermazioni assolute e perentorie necessitano di un sapere fondato e ben altre considerazioni il cui fondamento è in un sapere non più di moda, soprattutto in ambito scientifico. Ma vagando oggi – anche inconsapevolmente – all'interno di un paradigma postmoderno che ha detto addio al sapere veritativo appare possibile muovere riflessioni sull'umano e le macchine (e le presunte differenze) su basi intuitive, senza porre attenzione al metodo di fondo che ci porta invece a non poter oltrepassare una concezione oggettivata dell'umano che lo costringe a rassomigliare ad una macchina più di quanto si possa immaginare. In ogni caso, in questo articolo non si approfondiranno tali considerazioni ma si procederà a mostrare come la «rivoluzione cognitiva» che stiamo vivendo è solo nello stato embrionale – siamo all’inizio dell’accelerazione esponenziale. Siamo in un momento altamente sperimentale in cui tutte le riflessioni e la mostra dei banali errori commessi dalle IA non contano assolutamente nulla rispetto a ciò che avverrà nei prossimi tre o quattro anni. E per portare avanti questa tesi faremo delle osservazioni di carattere squisitamente tecnologico, provando a vedere cosa succederà nei prossimi anni, al di là delle considerazioni sull'AGI (Artificial General Intelligence) – altro concetto non fondato – che pure alimentano il dibattito. È necessario farsene una ragione: le macchine saranno infinitamente più «intelligenti» di noi e non è escluso che emulino in maniera talmente precisa emozioni e sentimenti che si mostreranno empatiche, forse anche più di noi stessi (saremo noi che non avremo più capacità discriminatoria essendoci avvicinati cognitivamente alle macchine stesse). Queste affermazioni hanno un carattere provocatorio ma sono oltremodo necessarie per controbilanciare la sicumera con cui si fanno certe dichiarazioni basate su ciò che oggi le macchine possono fare e che solo un paio di anni fa, bisogna ammetterlo, era fantascienza. Vale certamente la pena concentrarsi sui limiti, come ad esempio il gruppo di Sami Bengio ad Apple che sta studiando i limiti dei modelli di IA di tipo «reasoning» e che ha mostrato come oltre una certa soglia di complessità le prestazioni calano drasticamente. Ma qui non si sta usando il limite come prova assoluta che ci differenzia dall’umano; anzi, in questo caso il limite è messo a fuoco al fine di trovare nuove metodologie per oltrepassarlo – e il gruppo di ricerca di Bengio ne ha proposta più di qualcuna. Come ultima premessa vale la pena sottolineare che tutte le possibili metafore utili a mostrare il cambiamento che l’IA sta portando nelle nostre vite sono valide. L’avvento dell’IA generativa come l’invenzione della stampa a caratteri mobili o addirittura della scrittura; l'espansione dell’IA come la diffusione di Internet negli anni Novanta.
Un parallelo che, invece, è utile per la nostra tesi è quello dello sviluppo dei primi motori di ricerca, nati in forma sperimentale e in «garage» universitari – fu così la Standford University per Google – e poi diventati giganti con prestazioni senza precedenti. Di fatto, al di là della meraviglia tecnologica sottesa ai sistemi di IA attuali, qualcosa di fondamentale manca ancora all’appello: un’infrastruttura sistemica, distribuita e interconnessa, che permetta a questi modelli di diventare strumenti stabili, persistenti e scalabili. E proprio il 23 luglio 2025 il Presidente Trump ha firmato tre Executive Orders per agevolare la costruzione di datacenter, allentare vincoli ambientali e promuovere l’export di tecnologie IA agli alleati – un vero e proprio piano denominato «America’s AI Action Plan», presentato come acceleratore della supremazia tecnologica USA e alla base di una «Golden Age» per l’innovazione.
Questi provvedimenti al di là di essere atti amministrativi si configurano come il segnale (geo)politico che qualcosa di più grande sta prendendo forma sotto la superficie. Ma cosa intendiamo dire quando parliamo di infrastruttura sistemica per l’IA? Alla fine degli anni 2000, Google non divenne un motore di ricerca dominante a livello mondiale solo perché inventò il PageRank, ma soprattutto perché costruì da zero un intero ecosistema distribuito globalmente – datacenter, protocolli e infrastrutture hardware – capace di rendere scalabile e affidabile i suoi algoritmi di ricerca. Ed è proprio ciò che si sta facendo in questo momento in termini di investimenti miliardari e progetti strategici per l’IA e che avranno anche ricadute geopolitiche (e mentre negli Stati Uniti ci si prepara con l’«America’s AI Action Plan» in Europa si pensa ad investire nella difesa – ci si potrebbe domandare chi venderà questa tecnologia e chi, quindi, incasserà utili fondi per finanziare i propri piani industriali in ambito IA...).
Ciò merita più di una riflessione. L’architettura hardware distribuita è il cuore invisibile che trasforma una tecnologia promettente in un’invenzione epocale. In questo articolo, esploreremo come nel contesto dell’IA oggi siamo ancora in una fase pionieristica e di sperimentazione con modelli brillanti ma ancora imprecisi, infrastrutture insufficienti, investimenti in corso e spinte politiche in atto. Fino a quando non esisterà un ecosistema globale pensato per l’IA, non avremo ancora raggiunto la vera maturità – l’IA continuerà a funzionare come un «piccolo miracolo tecnologico», ma gran parte delle carenze, soprattutto riguardo all’ambito multi-agente, è dovuta alla mancanza di una solida base strutturale di tipo hardware.
1. Il precedente storico: l’evoluzione architetturale di Google
Per comprendere il punto in
cui ci troviamo oggi con l’IA generativa, può essere illuminante guardare
indietro agli anni in cui nacque Google. Agli inizi, Google non era che un
progetto sperimentale universitario. Si disponeva di una buona idea proveniente
dall’ambito matematico – l’algoritmo PageRank – che ordinava le
pagine del web in base alla loro importanza relazionale (formalizzando le
interconnessioni tra le pagine web per mezzo di grafi). Ma quella brillantezza
iniziale, da sola, non sarebbe bastata a trasformare un motore di ricerca in
una delle infrastrutture centrali del nostro tempo.
La vera forza di Google è emersa
quando si è scelto di costruire qualcosa che allora non esisteva e cioè
un’architettura distribuita, progettata ex novo per supportare la scalabilità
globale dell’indicizzazione. Ciò significava ripensare l’intero stack
tecnologico e portò alla progettazione del Google File System (2002)
per la gestione di enormi quantità di dati su nodi instabili, del MapReduce
(2004) per distribuire il calcolo in parallelo, del BigTable (2005) per
archiviare dati strutturati a livello planetario, di Borg (2006) per
orchestrare migliaia di processi su cluster di computer. Infine, con Spanner
(2012) Google si dotò del primo database globale con coerenza temporale
atomica.
Fu tale sovrapposizione sistemica
– tra software e hardware, tra algoritmo, datacenter e cluster di calcolo – a
rendere Google non solo efficiente, ma egemone a livello planetario, inseguita
da Microsoft con Bing Search. Un algoritmo non avrebbe mai retto da solo
il peso del web. Serviva una visione architetturale e investimenti
infrastrutturali. E qui sta il nodo della nostra analogia: oggi siamo
entusiasti delle capacità dei modelli di IA generativa (o ne critichiamo i
limiti), ma siamo esattamente nel punto in cui era Google a fine anni Novanta.
Si dispone di modelli brillanti – basati sul meccanismo di attenzione nei
Transformer – ma manca un’infrastruttura pensata per rendere l’IA sistemica,
stabile, ubiqua. Proprio come Google costruì il «supercomputer del web», le
grandi company foraggiate da scelte a carattere geopolitico si stanno
preparando per le grandi infrastrutture che supporteranno l’IA di domani (e non
di dopodomani).
L’esempio di Google mostra
chiaramente che l’innovazione non si cristallizza in un algoritmo (o in
una singola soluzione), ma nella capacità di trasformarlo in una rete
infrastrutturale globale, capace di evolvere con le esigenze cognitive e
operative della società. Il fatto è che oggi viviamo un’era tecnologica in
cui il lasso di tempo tra la sperimentazione e la commercializzazione ubiqua è
quasi nullo.
2. L’IA generativa oggi: strumenti potenti, ma ecosistemi fragili
Oggi ci troviamo nel pieno
dell’entusiasmo per l’Intelligenza Artificiale generativa o la percepiamo come
una minaccia, vuoi perché «candidata a sostituirci» o perché produttrice di errori che
diventeranno endemici nell’architettura del sapere di cui in futuro disporremo.
I modelli di linguaggio di nuova generazione – noti come LLM, Large Language
Models – sono in grado di produrre testi, dialoghi, codice per computer,
descrizioni visive e interazioni con un livello di fluidità e coerenza
sorprendente. Il meccanismo che li anima – una particolare Rete Neurale
Artificiale nota come Transformer ideata nel 2017 – si è rivelato una
svolta nel modo in cui le macchine apprendono automaticamente, processano
sequenze simboliche e catturano correlazioni nei dati. Da qui, la corsa ai
modelli sempre più grandi, più multimodali, più performanti. Ma se ci
fermiamo un momento ad analizzare il contesto in cui questi modelli operano,
emerge una contraddizione strutturale in quanto la potenza dell’algoritmo non è
ancora accompagnata da un ecosistema solido in cui possa realmente esprimersi.
I modelli funzionano, ma lo fanno all’interno di architetture ancora in fase di
adattamento come sistemi cloud generalisti, GPU pensate originariamente per
il rendering grafico, pipeline ingegnerizzate ad hoc per sostenere operazioni
che richiedono enormi quantità di memoria e calcolo distribuito.
La sensazione è quella di una
corsa alimentata dalla pressione economica e dal desiderio di dimostrare e
creare engagement nel pubblico, più che dalla stabilità di un sistema
già maturo. Ogni nuova release è un piccolo miracolo d’ingegneria in
equilibrio precario in quanto non abbiamo ancora una «piattaforma hardware
naturale» per l’IA generativa come oggi lo sono, ad esempio, I browser per
il web o il TCP/IP per Internet o i motori di ricerca. E il salto verso l’IA
agentica, che si profila come la prossima evoluzione, rende ancora più urgente
la necessità di infrastrutture ad hoc, potenti e distribuite. Un agente
intelligente non è solo un modello che genera output. Un agente è un’entità che
pianifica, osserva, ricorda, valuta alternative, agisce nel tempo e si adatta
all’ambiente e dispone di un proprio «calcolatore elettronico» per sviluppare
inferenze di tipo simbolico (in linea con l’IA neuro-simbolica altra fruttuosa
evoluzione degli attuali modelli che promette di superare i «limiti statistici»
attuali). L'IA basata su agenti, ha bisogno di infrastrutture che vadano
oltre il calcolo per espletare – per miliardi di utenti – funzionalità quali
orchestrazione, memoria persistente, ambienti interattivi, protocolli di
comunicazione tra agenti, osservabilità, governance, gestione della latenza.
In altri termini, l’IA sta
crescendo, ma lo sta facendo in un ecosistema tecnologico costruito per altri
scopi. Finché non si arriverà ad un’architettura stabile – distribuita,
modulare, reattiva – si resterà in una fase pionieristica, per quanto
affascinante (o inquietante).
Per questo, sotto la superficie
del dibattito pubblico, è in corso una corsa globale per costruire la nuova
infrastruttura cognitiva del XXI secolo. Ed è una corsa che coinvolge tanto I
giganti tecnologici quanto I governi, quindi ha connotati geopolitici. Abbiamo
visto, infatti, come il presidente degli Stati Uniti Donald Trump ha firmato
tre Executive Orders destinati a cambiare radicalmente il quadro normativo
dell’innovazione. Misure straordinarie per accelerare la costruzione di
datacenter e centri di calcolo dedicati all’intelligenza artificiale,
semplificazione dei permessi, allentamento delle restrizioni ambientali per
l’impiego di energia fossile e nucleare e un piano da oltre 100 miliardi di
dollari per incentivare la produzione, l’export e la distribuzione di
tecnologie IA. L’obiettivo è chiaro: rendere gli Stati Uniti il baricentro
infrastrutturale dell’«era cognitiva» e affermare la supremazia nell’IA nei
confronti della Cina. Le grandi aziende non stanno a guardare. Google ha
annunciato un investimento da 25 miliardi di dollari nei prossimi due anni per
costruire datacenter ad alta efficienza dedicati all’IA, con un piano capex
globale che supererà gli 85 miliardi nel solo 2025. OpenAI, in partnership con
Oracle e SoftBank, sta realizzando Stargate, un’infrastruttura colossale da
oltre 100 miliardi di dollari, con una capacità energetica superiore ai 4,5
gigawatt e l’impiego previsto di oltre due milioni di chip NVIDIA (che intanto
è diventata una «trillion dollar company»). Meta ha avviato la costruzione di
supercluster IA in grado di occupare l’equivalente di interi quartieri urbani,
mentre Microsoft ha introdotto un piano da 80 miliardi per espandere I propri
datacenter su scala globale. E questo è solo l’inizio.
Non si tratta più di aumentare la
potenza computazionale, ma di trasformare l’intero ambiente tecnologico e
creare datacenter progettati per l’IA, reti distribuite a bassa latenza per il
dialogo tra agenti, sistemi di orchestrazione in tempo reale, memorie condivise
e riattivabili, impianti energetici «sostenibili» e nuove forme di governance
integrate nei protocolli. È la nascita di una nuova infrastruttura cognitiva,
capace di ospitare intelligenze fluide basate sul silicio (pero ora e fino alla
prossima rivoluzione quantica), connesse, autonome. In gioco non c’è solo la
competizione tra modelli di IA, ma la possibilità di costruire un sistema in
cui l’intelligenza artificiale non sia un’entità isolata, ma parte di un
ecosistema fluido, reattivo e distribuito. È una rivoluzione
invisibile che si gioca lontano dai riflettori, tra reti elettriche, sale
server, chip, protocolli e codici. Qui la similitudine più utile è l'invenzione dell'automobile, all'inizio un tabbicolo sperimentale usabile da pochissimi esperti e appassionati, dopo uno stumento che ha modificato l'assetto economico e sociale di intere società creando un indotto gigantesco (strade, catene logistiche, nuovi lavori) che ha modificat addirittura il panaorama urbano.
3. Rischi di una «bolla» sistemica? Il dibattito sul parallelo con le dot-com
Quando una tecnologia cresce così rapidamente da catalizzare miliardi in investimenti, interi piani governativi e una nuova retorica del progresso, è inevitabile chiedersi se siamo davvero nel mezzo di una rivoluzione o ci stiamo avvicinando a un’altra bolla come è già successo nel passato. La domanda è lecita e torna con forza proprio in questi mesi, alimentata da un boom che alcuni economisti definiscono «più grande e più rischioso della bolla delle dot-com dei primi anni Duemila».
Il paragone non è casuale. All’inizio
degli anni Duemila, fu proprio Internet a generare aspettative smisurate,
poiché si pensava che ogni azienda potesse diventare una «.com», ogni settore
potesse essere reinventato online, ogni investimento si giustificasse con una
narrazione dirompente. Poi arrivò il fattore sistemico di «correzione».
Molte startup svanirono, ma l’infrastruttura sopravvisse. Esempi sono la banda
larga, i protocolli, i browser, i data center e tutte quelle aziende che seppur
inizialmente in perdita riuscirono a mettere su un business che incontrava la
futura domanda del mercato (vedi il caso Amazon). Fu proprio ciò che rimase in
piedi dopo lo scoppio a costituire le fondamenta dell’economia digitale di
oggi.
Oggi, l’intelligenza
artificiale sembra trovarsi in una fase simile. Secondo Torsten Sløk, capo
economista di Apollo, le valutazioni delle aziende IA sono già disallineate dai
loro reali ritorni economici, in modo ancora più marcato rispetto al 2000.
Alcuni osservatori parlano di una «bolla narrativa» con grandi promesse, poca
trasparenza, tempi lunghi di ritorno sugli investimenti. Eppure, non tutti sono
pessimisti. Steve Case, cofondatore di AOL, invita a distinguere tra «la bolla
finanziaria e l’onda tecnologica». Anche se ci sarà una correzione – sostiene –
questa potrà servire a rafforzare l’ecosistema, selezionando I modelli e le
aziende più solide. Allo stesso modo in OpenAI si riconosce che «sì, siamo
in una bolla», ma una bolla costruttiva. L’esempio è quello delle
autostrade costruite in anticipo rispetto al traffico del futuro e le
infrastrutture oggi in corso di realizzazione potrebbero rivelarsi essenziali
nel medio-lungo termine. Altri, come Eric Schmidt, ex CEO di Google, respingono
l’idea stessa di bolla sostenendo che al contrario dei primi anni Duemila
questa volta le «fondamenta» sono reali. In effetti, a differenza del passato,
molti dei protagonisti dell’IA di oggi sono già profittevoli, con prodotti sul
mercato, clienti consolidati e partnership industriali. Anche Bank of America,
in una nota recente, ha evidenziato che l’attuale volatilità del mercato IA
è inferiore a quella tipica delle bolle, suggerendo che potremmo trovarci
in una fase di espansione razionale, più che di euforia insostenibile.
Tuttavia, il livello di
aspettativa è altissimo. Se l’IA futura (chiamiamola anche «agentica») non
manterrà la promessa di trasformare l’interazione uomo-macchina, se i ritorni
industriali tarderanno ad arrivare o se emergeranno problemi strutturali –
energetici, etici, normativi – allora potremmo assistere a un rallentamento
brusco e ad un nuovo «inverno dell’IA» come accaduto in passato ancora prima
della bolla dot-com. Ma anche in questo scenario, vale la lezione delle
dot-com: non tutto ciò che esplode svanisce. L’infrastruttura rimane. Ed è proprio
qui la vera posta in gioco. I modelli saranno sempre più brillanti e
sostituibili, ma è attraverso i sistemi infrastrutturali che si
riusciranno a costruire che potranno mostrare tutto il loro potenziale e,
forse, la promessa dell’AGI.
Conclusione – Siamo ancora nel garage
A osservare l’entusiasmo attorno
all’intelligenza artificiale generativa e agentica, si potrebbe pensare di
trovarsi nel cuore di una rivoluzione compiuta. E invece no, siamo ancora
agli inizi. Per quanto impressionanti siano I modelli attuali, e per quanto
potenti siano gli investimenti e le retoriche che li circondano, ci troviamo in
una fase embrionale, non dissimile da quella in cui Google muoveva I primi
passi nel retro di un dormitorio universitario.
Allora, come oggi, c’era un
algoritmo promettente, ma mancava tutto il resto: l’infrastruttura per renderlo
un sistema, il design architetturale per sostenerne la crescita, la visione
ingegneristica per distribuirne l’intelligenza. Fu solo con la costruzione di
datacenter, protocolli, orchestratori, database distribuiti e reti globali che
il motore di ricerca divenne la macchina della conoscenza contemporanea.
Oggi ci troviamo nello stesso
punto. I modelli generativi hanno mostrato scintille di intelligenza, ma
sono ancora isolati, fragili, costosi e dipendenti da contesti artificiali. L’agire,
il ricordare, il pianificare, l’adattarsi – tutte le qualità che associamo
all’intelligenza – richiedono un’infrastruttura sistemica, ancora da costruire.
Un’infrastruttura che non è solo tecnologica, ma anche energetica, normativa,
epistemica. Ciò porterà anche alla rivoluzione della robotica autonoma.
Ecco perché, nonostante le demo, I benchmark e le campagne pubblicitarie e il
marketing passivo-aggressivo, siamo ancora nel garage. Il momento in cui
l’intelligenza artificiale diventerà sistema, e non solo spettacolo, non è
ancora arrivato. Nelle retrovie delle big tech, nei corridoi delle politiche
industriali, nei progetti da migliaia di megawatt che trasformano datacenter in
organismi cognitivi distribuiti. È qui che si gioca il vero futuro dell’IA.
Certamente non da noi in Europa dove si pensa a finanziare la difesa
acquistando tecnologie che provengono proprio da quel paese che ha deciso di
avere una supremazia strategica sull’IA.
Come già accaduto con il web e
con I motori di ricerca, non sarà dolo un algoritmo a cambiare il mondo, ma
l’ecosistema che gli si costruirà attorno.
Riferimenti bibliografici
Whitehouse.gov | Executive Orders July 23, 2025. (2025) Accelerating Federal Permitting of Data Center Infrastructure. https://www.whitehouse.gov/presidential-actions/2025/07/accelerating-federal-permitting-of-data-center-infrastructure/
P., Mirzadeh, I., Alizadeh, K., Horton, M., Bengio, S., & Farajtabar, M. (2025). The illusion of thinking: Understanding the strengths and limitations of reasoning models via the lens of problem complexity. arXiv preprint arXiv:2506.06941.
Brin, S., & Page, L. (1998). The anatomy of a large-scale hypertextual Web search engine. Computer Networks and ISDN Systems, 30(1–7), 107–117. https://doi.org/10.1016/S0169-7552(98)00110-X
Dean, J., & Ghemawat, S. (2004). MapReduce: Simplified data processing on large clusters. OSDI ’04: Proceedings of the 6th Symposium on Operating Systems Design and Implementation, 137–150. https://static.googleusercontent.com/media/research.google.com/it//archive/mapreduce-osdi04.pdf
S., Gobioff, H., & Leung, S. T. (2003, October). The Google file system. In Proceedings of the nineteenth ACM symposium on Operating systems principles (pp. 29-43). https://dl.acm.org/doi/pdf/10.1145/945445.945450
Chang, F., Dean, J., Ghemawat, S., Hsieh, W. C., Wallach, D. A., Burrows, M., ... & Gruber, R. E. (2008). Bigtable: A distributed storage system for structured data. ACM Transactions on Computer Systems (TOCS), 26(2), 1-26. https://shorturl.at/5U7M5
Corbett, J. C., Dean, J., Epstein, M., Fikes, A., Frost, C., Furman, J. J., ... & Woodford, D. (2013). Spanner: Google’s globally distributed database. ACM Transactions on Computer Systems (TOCS), 31(3), 1-22. https://dl.acm.org/doi/abs/10.1145/2491245
Barroso, L. A., Hölzle, U., & Ranganathan, P. (2019). The datacenter as a computer: Designing warehouse-scale machines (p. 189). Springer Nature. Reuters. (2025, July 22). Is today’s AI boom bigger than the dotcom bubble? Reuters. https://www.reuters.com/markets/europe/is-todays-ai-boom-bigger-than-dotcom-bubble-2025-07-22/
Tom’s Hardware. (2025, July 23). AI bubble is worse than the dot-com crash that erased trillions, economist warns. https://finance.yahoo.com/news/ai-bubble-worse-dot-com-123623866.html
Insider. (2024, October). OpenAI Chairman says AI is in a bubble—but a productive one. https://www.businessinsider.com/openai-chairman-ai-is-in-a-bubble-2024-10
Time. (2024, October 31). Steve Case: What the AI generation can learn from the dotcom bust. https://time.com/7273163/steve-case-ai-generation-learn-from-dotcom-bust/
Research Affiliates. (2024). AI boom or dot-com déjà vu? Seen this before. https://www.researchaffiliates.com/publications/articles/1038-ai-boom-dot-com-bubble-seen-this-before
Business Insider. (2025, July). Eric Schmidt explains why he doesn’t think AI is a bubble. https://www.businessinsider.com/eric-schmidt-ai-market-not-bubble-2025-7
MarketWatch. (2025). Volatility suggests AI is not in a bubble—yet. Bank of America. https://www.marketwatch.com/story/volatility-suggests-ai-is-not-in-a-bubble-at-least-not-yet-says-bank-of-america-11254d7f
Floridi, L. (2024). Why the AI hype is another tech bubble. Philosophy & Technology, 37(4), 128.The Wall Street Journal. (2025, July 23).
Trump pledges moves to stimulate AI use and exports. https://www.wsj.com/tech/ai/trump-pledges-moves-to-stimulate-ai-use-and-exports-b85b0b15
AP News. (2025, July 23). From tech podcasts to policy: Trump’s new AI plan leans heavily on Silicon Valley industry ideas https://apnews.com/article/3763ca207561a3fe8b35327f9ce7ca73
Barron’s. (2025, July 23). White House unveils push to speed AI development. https://www.barrons.com/articles/white-house-ai-action-plan-d1b584ce
Investors Business Daily. (2025, July 23). Nvidia, AI Chipmakers Buoyed By Google Capex, Trump Planhttps://www.investors.com/news/technology/nvidia-stock-buoyed-google-capex-trump-plan
OpenAI. (2025, July 22). Stargate advances with 4.5 GW partnership with Oracle https://openai.com/index/stargate-advances-with-partnership-with-oracle/
Nessun commento:
Posta un commento