La parabola della globalizzazione
di Gian Carlo Loraschi
Ideazione di novembre-dicembre 2005

Di globalizzazione si è cominciato a parlare intorno al 1990 (in precedenza, in questo senso il termine era sconosciuto) per indicare la crescita del commercio e dei flussi finanziari internazionali più veloce dell'economia mondiale e la tendenza delle economie a integrarsi e a essere sempre più interdipendenti, con ricadute sulle istituzioni politiche e sulle culture che tendono a uniformarsi, mentre si afferma l'inglese come lingua franca e il mondo, specialmente il management, si impregna di cultura statunitense. Qualcosa di simile è avvenuto diverse volte nella storia dell'umanità. Nell'antichità gli imperi assiro-babilonese, persiano, cinese e romano di fatto (cioè senza una dottrina economica e politica) avevano unificato in vaste aree lingua e cultura, aprendole agli scambi. Nell'Ottocento si è avuta la prima vera fase di globalizzazione mondiale, anche se non era chiamata così, col gold standard, con l'abbattimento delle barriere doganali che aveva portato a qualcosa di più di un aumento degli scambi internazionali. La formazione degli imperi coloniali e l'espansione russa verso est avevano creato una certa omogeneità in quattro quinti del mondo. Questo e il restante quinto avevano accettato abbastanza pacificamente molti elementi dell'organizzazione amministrativa, delle istituzioni, della cultura, dello stesso stile di vita europeo. La Turchia, per esempio, aveva adottato tal quale il codice penale italiano Zanardelli del 1889 e gli Stati arabi del Mediterraneo avevano accettato, bon gré mal gré, di interrompere la pirateria sul mare. L'assimilazione più rapida e completa, compiuta in due decenni dopo essere stata studiata a tavolino (una missione giapponese aveva visitato i maggiori paesi europei per studiarne le istituzioni e l'organizzazione), era stata quella del Giappone con l'avvento dell'epoca Meiji (1868). Inglese, francese, tedesco e russo erano diventate lingue franche internazionali o, quanto meno, lingue comprese nella maggior parte del mondo e usate anche come canale di diffusione della cultura.

Il fondamento teorico della globalizzazione ottocentesca era il liberalismo politico ed economico, in particolare la teoria dei costi comparati di Ricardo (1767-1823) e la legge di Say (1767-1832): istituzioni stabili e liberali e il mercato non distorto da interventi dello Stato (finanza pubblica neutrale, laissez faire) permettono alla gente e alle imprese dei vari paesi di produrre e di scambiarsi merci e servizi alle condizioni più convenienti e di specializzarsi nelle attività più vantaggiose per ciascuno secondo i rispettivi costi di produzione; l'offerta crea la sua domanda; possono aversi crisi economiche solo settoriali e solo temporanee in quanto offerta e domanda si correggono e adattano vicendevolmente in modo automatico. L'esperimento entra in crisi a fine secolo con l'emergere del nazionalismo protezionista tedesco e italiano e muore con la prima guerra mondiale. Al termine della seconda guerra mondiale, per iniziativa degli Stati Uniti si è cercato di dare un ordine politico alla comunità internazionale con l'Onu, a quello finanziario con la Banca mondiale e il Fondo monetario internazionale ed è stata riavviata su nuove basi la liberalizzazione degli scambi con gli accordi Gatt1.# Ciò non avrebbe però portato, verosimilmente, alla globalizzazione, così come oggi si manifesta, senza alcuni eventi imprevisti, tutti degli anni Novanta, che l'hanno fatta maturare nei suoi tre aspetti: scientifico-tecnologici, economici e politici.

Globalizzazione tecnologica e progresso scientifico
Il primo evento è stato indotto dallo sviluppo straordinario dell'high tech, l'insieme delle applicazioni delle conoscenze scientifiche realizzate negli ultimi quarant'anni. Rientra nell'high tech la tecnologia dell'informazione e della comunicazione, cioè l'Ict (information & communication technology), matrimonio tra software, computer, telefono e satellite che ha permesso la trasmissione e l'elaborazione in tempo reale (o quasi reale) delle informazioni e dei comandi, la costruzione della televisione via satellite e, soprattutto, la nascita della rete di Internet. L'Ict, in cui confluiscono l'elettronica, l'informatica (computer science) e le telecomunicazioni, è un settore molto giovane di ricerca interdisciplinare. Dire che cosa esso ci riserverà in futuro è lavoro da fantascienza, ma il poco che già è stato realizzato fa conoscere tutto il suo grande potenziale di innovazione e di cambiamento sociale. Oltre a rendere la comunicazione istantanea per via elettronica e a realizzare con la tv e Internet il “villaggio globale” preconizzato da McLuhan nel 1986, l'Ict ha cambiato le tecnologie di produzione, l'organizzazione del lavoro, la struttura delle organizzazioni e le strategie militari, ha rafforzato i poteri di controllo e di decisione del top management, ha potenziato la ricerca scientifica ed è uno strumento di diffusione delle culture. Attraverso Internet, la gente da una parte esce dal guscio e accede alla cultura dei paesi più progrediti e, dall'altra, sostiene e fa conoscere la propria cultura locale, che altrimenti potrebbe estinguersi. L'Ict ha, inoltre, portato nuovi modi di produzione, di scambio e di relazioni economiche e nuove infrastrutture. Ha addotto, inoltre, nuovi beni al cui valore le risorse materiali e le macchine concorrono meno della conoscenza e che costituiscono la parte visibile, si dice, di una “nuova economia”. Le innovazioni dell'Ict costituiscono il principale e indispensabile motore della globalizzazione mondiale, almeno per la rapidità con cui si sta muovendo. L'high tech, espressione che è usata come sostantivo e come aggettivo, è abbreviazione di high technology industries. La denominazione compare già negli anni Settanta per indicare ogni tecnologia che richiede apparecchiature scientifiche sofisticate e applicazioni ingegneristiche avanzate nell'hardware e nel software (cioè nella realizzazione di macchine e apparecchiature materiali e nell'elaborazione di programmi per farle funzionare). Per estensione si riferisce alle attività nuove che sono applicazioni dei grandi progressi recenti delle scienze, che dipendono fortemente dalle innovazioni tecniche e che producono beni e servizi nuovi o alquanto migliorati rispetto al passato e, di solito, ad alto valore aggiunto. Un'industria high tech ha un alto livello di spese in r&d (research and development, ricerca e sviluppo), ha una domanda elevata di personale ad alta qualificazione tecnico-scientifica (ingegneri, medici, biologi, informatici, ricercatori in genere e tecnici di laboratorio) e, di solito, è costituita da imprese di nuova o recente costituzione, dette start up, con forti tassi di crescita in essere o attesi. Ci sono, però, imprese tradizionali che hanno sviluppato divisioni interne high tech. I settori high tech sono tipicamente quelli delle biotecnologie, dei farmaci, delle apparecchiature medicali, della nanotecnologia, della nanotecnologia molecolare e le industrie avanzate dell'Ict.

Il procedere della diffusione nel mondo delle conoscenze scientifiche e delle loro applicazioni e le loro ricadute costituiscono la globalizzazione scientifico-tecnologica, che è fondamentalmente globalizzazione dell'informazione e della conoscenza. È ragionevole pensare che la globalizzazione dei prodotti del progresso scientifico-tecnologico sia inarrestabile nei prossimi anni, cioè nel medio termine. L'esperienza del passato dimostra che è generalmente avvenuto così e che la scoperta di una nuova conoscenza o di una nuova tecnologia viene accettata non appena l'uomo ne scopre l'utilità. La diffusione delle scoperte del fuoco, dell'agricoltura, della ruota, dei metalli, per fare qualche esempio, è avvenuta abbastanza rapidamente, nonostante le difficoltà di comunicazione tra la gente, poco numerosa e dispersa nei continenti. È invece avventato fare previsioni a lungo termine sui progressi futuri della ricerca scientifica e dello sviluppo delle sue applicazioni, ma, almeno per il momento, non si vedono inversioni di marcia. Per la contingenza, va ricordato che fermare il progresso scientifico, non avere industrie high tech, non adottare nuove tecnologie significa destinare un paese all'arretratezza e all'emarginazione. Globalizzazione dell'informazione e delle conoscenze tecnologiche non significa però globalizzazione della cultura e nemmeno assicura la diffusione di modelli di moralità e di democrazia migliori, secondo un dato punto di vista. Da questo secondo punto di vista, la globalizzazione è un prodotto dell'evoluzione culturale e l'evoluzione prosegue a suo modo, sorda e cieca verso i sentimenti e le aspirazioni umane.

Globalizzazione e nuova economia
Figlia dell'Ict e altro aspetto della globalizzazione è stata la “nuova economia” (new economy), nozione controversa poiché, a fianco dei benefici in termini di produttività e di trasparenza, ha portato problemi nuovi e complessi e può configurare casi di fallimento del mercato in danno dei consumatori. Inoltre, intorno alla “nuova economia” negli anni Novanta sono sorti miti pericolosi che hanno alimentato una bolla speculativa seguita, nel 2001-2002, da una crisi di diverse industrie dei nuovi settori anche high tech. Dopo di che l'entusiasmo dei professori e dei giornalisti è scomparso e con esso è cessata quasi del tutto la pubblicazione di libri e articoli sull'argomento. C'è anche chi pensa che la “nuova economia” sia stata un'invenzione della stampa finanziaria e delle banche interessate a lucrare sui collocamenti. Tuttavia gli effetti dei nuovi servizi suscitati dall'Ict e il loro valore aggiunto in termini monetari e di utilità per il consumatore (si pensi per fare un esempio al trading on line, agli sviluppi delle tecniche dell'informazione e dei settori produttivi connessi e strumentali) sono un fatto acquisito che contribuisce alla globalizzazione. L'argomento richiede perciò una digressione appropriata.

L'espressione new economy, che compare negli anni Novanta in contrapposizione alla old economy (“vecchia economia”, la produzione e gli scambi compiuti con le procedure e i metodi tradizionali), indica l'ambito delle organizzazioni, private o pubbliche, vecchie e nuove, che hanno impostato intensivamente sull'Ict e su Internet parte della loro attività o tutta la loro attività, ossia tanto l'organizzazione della produzione e delle relazioni amministrative interne, quanto le relazioni con i fornitori, i clienti e gli utenti, gli azionisti e gli altri interessati. «Riorganizzazione, attuata attraverso l'informazione e l'innovazione, dell'assetto produttivo operante» è definita la “nuova economia” nelle Considerazioni finali della Relazione della Banca d'Italia per il 1999. Con un po' di enfasi, è stato detto che l'Ict ha prodotto la terza rivoluzione industriale (intendendosi che una prima origina nel Settecento dalla macchina a vapore e una seconda verso la fine dell'Ottocento dalla dinamo e dall'elettrotecnica) capace di modificare radicalmente il mercato dei beni e del lavoro, di mutare le relazioni tra governo e cittadini, di influenzare la politica economica e di assicurare un'era di prosperità e di sviluppo. Dal punto di vista dell'organizzazione dei mercati e delle relazioni con le controparti (cittadini, fornitori, clienti, altre organizzazioni), l'aspetto evidente a tutti è la nascita dell'e-business con Internet e l'apertura di vetrine e sportelli virtuali, i “portali”, che affiancano le strutture materiali già esistenti (uffici, sportelli, saloni espositivi, negozi eccetera). Ciò è avvenuto non solo per le imprese, ma anche per le altre specie di organizzazioni e cioè amministrazioni pubbliche, partiti, università, sindacati, chiese e altre istituzioni, che si sono dotati, anch'essi, di un portale, cioè di siti web disegnati per presentare informazioni su se stessi e altre notizie in maniera organizzata e (non sempre) di facile consultazione, per dare accesso a informazioni che riguardano l'utente con possibilità di avere certificati, pagare imposte e canoni eccetera. Sono sorte, inoltre, anche organizzazioni pure-click, prima di Internet ovviamente impossibili, che mantengono le relazioni con clientela, fornitori e terzi esclusivamente in linea sul web (attraverso il portale, per esempio: Amazon, eBay, Yahoo!, Google, Tin.it-Virgilio, le banche on-line e le divisioni on-line che non ripetono virtualmente attività del nucleo industriale e commerciale tradizionale delle imprese di cui fanno parte). La nuova tecnologia apporta benefici importanti in termini di maggiori utilità. Le informazioni vengono acquisite, elaborate e ritrasmesse in tempo reale a un costo ridotto. Chiunque può utilizzare la rete per informarsi e comunicare per iscritto, a voce e per immagini. Le piccole imprese, prima confinate a ristretti mercati locali, possono accedere a mercati più estesi, anche internazionali, per approvvigionarsi, o per vendere attraverso un sito web costruibile e mantenibile con un costo modesto. Aumenta la trasparenza e la concorrenza di cui si avvantaggiano produttori e consumatori.

Di “nuova economia” si è parlato anche in termini macroeconomici sostenendo, negli Stati Uniti, che i progressi dell'Ict sono la forza trainante di un'accelerazione della produttività, riscontrata nella seconda metà degli anni Novanta, che grazie a questa accelerazione gli Stati Uniti possono permettersi tassi di sviluppo superiori al passato senza soffrire di inflazione elevata. Di conseguenza, la Federal Reserve poteva adottare un “nuovo paradigma” d'azione, favorevole a un allentamento della politica monetaria. La discesa dell'inflazione ai minimi storici, il forte aumento dell'occupazione e la crescita record del reddito erano i tre indici che smentivano il vecchio paradigma neoclassico della curva di Phillips, secondo cui tanto minore è la disoccupazione, tanto maggiore è la crescita dei prezzi, ovvero che la disoccupazione si può ridurre, ma a costo di un alto tasso di inflazione. Diminuivano anche i tassi di interesse, scendendo a un livello sconosciuto da cinquant'anni. Il futuro promesso era un'utopia di capitalismo anarchico e di tecnocrazia libertaria, un mondo flessibile senza regole rigide, dove la comunicazione è immediata, qualsiasi bisogno soddisfatto dal mercato o dalla Rete e lo Stato ridotto al minimo dalle nuove tecnologie. Nella “nuova economia” l'inflazione e il ciclo economico sarebbero stati definitivamente domati, i redditi avrebbero continuato ad aumentare, almeno per un tempo abbastanza lungo e le quotazioni di borsa erano destinate a salire senza sosta.

Soprattutto negli Stati Uniti, sociologi, politici, economisti, analisti finanziari e stampa specializzata hanno dato della “nuova economia” un'interpretazione ristretta. A differenza delle precedenti, la terza rivoluzione sembrerebbe concentrarsi in capitale e prodotti immateriali, costituiti da conoscenze e informazioni a disposizione di tutti gli utilizzatori. Software, videogame, media, database e archivi elettronici, biotecnologie, la stessa Internet e tutti i servizi, profit e non profit, che essa offre in Rete, sono esempi dei nuovi prodotti di questa specie, detti digitali, o di conoscenza (knowledge products; beni informativi è la traduzione proposta in italiano). Donde le denominazioni di digital economy e network economy (generalmente abbreviato in net-economy) e anche weightless economy (economia senza peso, dematerializzata). Quest'ultima denominazione precisa gli aspetti della dematerializzazione di diritti, titoli, servizi e rapporti, migrati dal supporto documentale cartaceo a quello digitale (si pensi ad azioni, obbligazioni e titoli di Stato, ordini di acquisto in linea eccetera), della comparsa di nuovi prodotti esclusivamente digitali e dell'accrescersi della quota dei prodotti digitali e di conoscenza per peso e per valore nel prodotto lordo nazionale. Internet economy, information economy, knowledge economy sono altre espressioni, un po' ambigue, considerate sinonimi.

Il concetto di massa critica
Caratteristica importante dei network che interessano la “nuova economia” è la presenza di esternalità di Rete (network externalities) dal lato del consumatore e da quello del fornitore. Per il primo l'utilità di accedere al servizio aumenta col numero delle persone connesse, a cominciare da zero quando l'utente è uno solo. Ciò significa che, dopo un inizio stentato, se è stimolato da una buona politica commerciale o se è supportato dal governo, il mercato cresce e, a un certo punto, il numero raggiunge una massa critica che provoca un'esplosione della domanda. La nozione di massa critica è cruciale per comprendere gli effetti delle esternalità di Rete. Spiega, intanto, il ruolo determinante delle politiche pubbliche degli Stati Uniti nello sviluppo dell'Ict e per la nascita di Internet, anticamera della “nuova economia”2. Spiega, anche, come mai le imprese cercano di raggiungere la massa critica con politiche di prezzi stracciati, nella speranza di veder poi crescere rapidamente la domanda, ovvero come mai, se perdono abbastanza quote di mercato nel confronto con la concorrenza, esse vedono regredire la domanda fino al punto che un prodotto (o la stessa impresa) scompare. Così, per esempio, è avvenuto per il Betamax di Sony a vantaggio del vhs di Jvc, per il sos di Apple e per il pcos di Olivetti rispetto allo msdos di Microsoft.

Le imprese, inoltre, una volta raggiunta una quota stabile e significativa del mercato, si avvantaggiano del fatto che i prodotti e i processi digitali sono path dependent, dipendono dal percorso, ovvero dalle scelte precedenti. In presenza di standard diversi, per passare a un altro fornitore l'utente sopporta costi (monetari o percepiti psicologicamente), detti switching cost (espressione traducibile in italiano con costi di trasferimento, o di migrazione; alcuni traducono meno bene con costi di transizione), oppure lock-in costs (letteralmente costi di bloccaggio). Se i costi sono abbastanza alti, l'utente non migra, neanche se il nuovo fornitore possiede tecnologie più efficienti. Questa condizione, in cui la rete della clientela diventa prigioniera del fornitore iniziale, comune in tutte le produzioni Ict, rende imperfetta la concorrenza ed è la leva che permette strategie commerciali di “blocco proprietario” (proprietary lock-in) con cui il fornitore costruisce una rete stabile di clienti, acquisisce una posizione dominante e ricava extra-profitti dallo sfruttamento del mercato. Il successo non è, però, garantito né è duraturo. In passato, il progresso tecnologico era una faccenda di anni, o di decenni, e c'era il tempo di fermarsi per godere abbastanza dei benefici delle proprie innovazioni, prima che queste diventassero obsolete. Oggi, almeno nell'high tech e nell'Ict, l'obsolescenza matura nell'arco anche di pochi mesi e l'imprenditore, come la Regina rossa del Viaggio attraverso lo specchio di Lewis Carroll (l'autore di Alice nel paese delle meraviglie), per restare al suo posto e mantenere le quote di mercato deve correre il più velocemente possibile. Poiché può limitare la concorrenza e impedire così al mercato di impiegare le risorse nel modo più efficiente possibile e di soddisfare al meglio i consumatori, il “blocco proprietario” è oggetto di attenzione delle autorità antitrust. Ciò avviene in particolare per i contratti di esclusiva, con cui si vincolano i clienti a non avere relazioni economiche con la concorrenza e con il tying, con cui si obbliga il cliente ad acquistare un certo prodotto abbinato ad un altro di cui si ha il monopolio. È il caso di Microsoft, due volte indagata negli Stati Uniti. Diverso è il caso della condanna inflitta l'anno scorso a Microsoft dall'Unione Europea. La legislazione europea è stata scritta per difendere le imprese dalla concorrenza e la decisione è stata ispirata dalla politica anti-americana di Francia e Germania. Altro problema è la tutela della proprietà intellettuale che va oltre l'ambito dei beni digitali, estendendosi a tutto l'high tech e a ogni prodotto dell'ingegno, composto di informazione e conoscenza. L'informazione e la conoscenza sono costose da creare e da sviluppare, ma si riproducono a buon prezzo, o senza prezzo monetario. Queste caratteristiche facilitano la circolazione della conoscenza, ma rendono difficile riservarsi lo sfruttamento esclusivo della propria invenzione, senza il riconoscimento da parte della legge di un diritto di proprietà intellettuale (intellectual property right) e la tutela con la concessione di un brevetto o di un copyright. La concessione è considerata uno strumento indispensabile per il progresso della ricerca e dello sviluppo tecnologico. Non sempre e non dovunque la proprietà intellettuale è però tutelata. Non erano in Italia brevettabili fino al 1975, per esempio, i farmaci e le nuove varietà vegetali. Non tutti i paesi riconoscono di diritto o di fatto le convenzioni internazionali sulla tutela: si pensi alla Cina e ai paesi del terzo mondo. Brevetti e copyrights non sono sempre rispettati né sono amati neanche nei paesi occidentali. La mancanza di rispetto è facilitata dallo stesso progresso tecnico. Si pensi alla consuetudine illegale della fotocopia di libri e della copia non autorizzata di cd e software, grazie alla disponibilità di macchine di riproduzione efficienti e poco costose.

Proprietà intellettuale e open source
Quanto all'insofferenza, per il software esiste il movimento, del tutto legale, dell'open source, di cui è grande animatore lo statunitense Richard Stallman, hacker e poi attivo fondatore del movimento Free Software, del gnu project, della Free Software Foundation e della League for Programming Freedom. Per comprendere i propositi del movimento bisogna ricordare che ogni software prima è scritto in linguaggi artificiali (Basic, Fortran, Cobol, C++, Java, Lisp, Pascal, Phyton, Prolog eccetera) comprensibili al programmatore e, poi, viene tradotto con speciali programmi in linguaggio macchina. Questo è basato sul sistema binario, l'unico comprensibile dal computer, ma praticamente illeggibile per l'uomo. Purtroppo l'operazione non è reversibile, cioè non si può tornare dal linguaggio macchina al programma originario. Per questo motivo, se il software viene consegnato solo in linguaggio macchina senza codice sorgente (è cioè closed source), non si capisce come è fatto, non si può controllare come lavora e non lo si può correggere, migliorare o integrare con implementazioni. Un software del genere è detto “proprietario” (proprietary software), tanto se è fornito a pagamento, quanto se gratis. L'espediente è il migliore a disposizione delle strategie di difesa del segreto industriale e del brevetto e del copyright, che in questo modo sono però adoperate anche per il controllo del mercato e per lo sfruttamento del network. Il movimento per l'open source, sorretto anche da imprese e fondazioni private, propone la liberalizzazione del codice sorgente e combatte l'estensione della brevettabilità del software. Un esempio notevole di open source è il linguaggio html, costruito da Tim Berners-Lee nel 1991 presso il Cern, messo gratuitamente a disposizione di chiunque. Altro software open source è Linux, un sistema operativo compilato dal finlandese Linus Benedict Torvalds, che lo ha pubblicato nel 1991. Open source, si noti, vuol dire utilizzo gratuito, o quasi (si ammette il pagamento di diritti per il rimborso di spese di duplicazione e di spedizione) del codice sorgente per lo sviluppatore, non software gratis per il consumatore finale. Grandi sponsor dell'open source sono società produttrici di hardware e software (Ibm per esempio), non per ragioni ideali, però, ma in funzione contingente anti-Microsoft. Le stesse società, infatti, compaiono in un gruppo di circa 200 produttori, che comprende, tra gli altri, Hp, Ibm, Intel, Adobe, Amd, Fujitsu-Siemens, Gateway, Motorola, Samsung, Toshiba e la stessa Microsoft, costituitosi nel 1979 per sostenere un progetto, denominato Trusted Computing Platform, in sigla tcp, che dovrebbe aumentare la sicurezza dei personal computer, specie nel commercio elettronico, ma che di fatto escluderebbe ogni software non approvato dal consorzio della tcp. A sostegno del progetto del gruppo per due volte è stato presentato da diversi senatori del Partito democratico un progetto di legge federale nel 106° e 107° Congresso, non trasformato in legge. La tcp, se imposta per legge, diventerebbe un formidabile strumento di tutela a tempo indeterminato della proprietà intellettuale.

La bolla speculativa delle dot.com
Legate alla “nuova economia” sono, purtroppo, le vicende di una delle più grandi bolle speculative della storia, che tra il 2000 e il 2002 ha bruciato in borsa e fuori borsa molte fortune di chi, come Pinocchio, si è abbandonato per avidità all'illusione di pronte e grandi miracolose fortune. Era comparsa negli anni Novanta, una teoria della crescita del valore delle dot-com3. La teoria si basava sulle “leggi” di Metcalfe e di Reed. Il primo, inventore di Ethernet, sosteneva che il valore di una Rete cresce al quadrato del numero degli utilizzatori (n2), il secondo, ricercatore al mit, che il valore di una Rete, capace di suscitare la formazione di una comunità di utenti, cresce esponenzialmente in base 2 secondo il numero degli utilizzatori (2n). Questa teoria, priva di verifiche sperimentali, ha fatto più male che bene allo sviluppo della nuova economia. Gli algoritmi delle due “leggi” hanno portato a concludere che le economie di Rete sono facilmente e rapidamente sfruttabili nel mercato vergine della new economy e promettono di poter raggiungere in fretta la massa critica per entrare nell'area del profitto. Di conseguenza le dot.com sono l'archetipo del futuro prossimo, dove i giganti dell'old economy sono destinati a scomparire o a essere ridimensionati. I vincitori di domani sono le start up, le nuove società di oggi. Con l'apparente fondamento scientifico delle leggi di Metcalfe e di Reed era sorta un'ideologia (da alcuni denominata Wired ideology, dal nome della rivista Wired Magazine di San Francisco che più l'ha propagandata) che ha infatuato la gente nell'ultimo decennio del Novecento, suscitando le illusioni cui è dovuta la bolla speculativa delle dot.com (dot.com bubble) del 1999-2000. La visione è stata estesa a tutte le società high tech di nuova costituzione. I tradizionali, consolidati criteri di valutazione delle imprese e delle azioni, si diceva, non valgono più. Chi non entra nel nuovo corso è destinato a essere spazzato via e chi vi si inserisce diventerà favolosamente ricco. Solo i pusillanimi continuano a credere alle vecchie leggi economiche e della pratica finanziaria e vogliono ancora vedere i profitti e il patrimonio netto prima di investire. Banche e riviste specializzate hanno contribuito a creare questo clima innaturale di fiducia che ha permesso, fino al 2000, di raccogliere nei mercati di borsa specializzati per le dot.com e i titoli high tech (per esempio in Italia il Nuovo Mercato, negli Usa il Nasdaq) grandi somme con offerte pubbliche di azioni (ipo: initial public offer) anche di società in perdita e di società nuove che non avrebbero mai guadagnato. Manager avidi e spregiudicati o improvvisati avevano scoperto come permettersi spese faraoniche e come arricchirsi rapidamente alle spalle dei risparmiatori. Un caso da manuale è stata la Kozmo.com, che nel 1998 aveva raccolto con un'ipo 280 milioni di dollari vantando l'inverosimile oggetto sociale di vendere con consegna a domicilio entro un'ora qualsiasi piccolo prodotto, da un dvd a un caffè, senza spese per il destinatario. La Kozmo.com è poi fallita nel 2001 senza residuo attivo per gli azionisti. La gente sembrava invasata da una cupidigia del denaro (greed is good!) cieca e sorda alle regole della prudenza e dell'etica4. La bolla delle dot.com del 1999-2000 ha seguito la strada comune a tutte quelle che l'hanno preceduta. A un certo punto il mercato ha preso ad attirare sempre più denaro dagli speculatori professionali, cui si sono accodati risparmiatori inesperti che si affacciavano per la prima volta alla Borsa e che hanno ingrossato il flusso dei capitali. Le quotazioni sono, quindi, lievitate in maniera esplosiva in brevissimo tempo, tra novembre 1999 e gli inizi di marzo 2000, fino a livelli astronomici, superiori a quelli delle grandi imprese tradizionali ben patrimonializzate e con ottimi margini di profitto. In tre mesi, le quotazioni a Milano del Nuovo Mercato sono salite mediamente del 1750 per cento, mentre il mercato delle azioni tradizionali rimaneva stabile. Lo stesso comportamento hanno avuto gli altri grandi mercati specializzati, principalmente il Nasdaq americano, l'Aim londinese, il Nouveau Marché francese, il Neuer Markt tedesco. Il 10 marzo 2000 la bolla è collassata simultaneamente in tutti questi mercati con un crollo dei prezzi in due mesi rapido quanto era stata la crescita. Chi avesse comprato azioni dot.com il 10 marzo 2000 avrebbe perso a oggi mediamente il 97 per cento del capitale. La crisi ha trascinato i titoli delle imprese di telecomunicazioni e high tech. Tra il 2001 e il 2002 molte dot.com e società high tech si sono trovate in difficoltà e molte altre sono fallite mettendo in crisi l'indotto, sotto il peso dei debiti e di scandali contabili. Circa duemila società delle oltre cinquemila quotate al Nasdaq prima della crisi sono scomparse dal listino, le più per fallimento. In Europa il Neuer Markt tedesco è stato chiuso, travolto da fallimenti, scandali e processi penali.

L'illusione liberal della new economy
Specialmente negli Usa, la dottrina della “nuova economia” apportatrice di grandi trasformazioni, di benessere e di progresso nelle relazioni sociali e politiche è stata accettata negli anni Novanta da parecchi, nelle università e nei centri di ricerca, indipendentemente dallo schieramento politico. Da destra ci si rallegrava un po' pensando passivamente che la “nuova economia” consisteva in una riduzione del peso dello Stato e in una riattivazione dei meccanismi di libero mercato. Più articolata, invece, era la posizione da sinistra, in specie quella del Partito democratico statunitense che, fin dal 1992, ha fatto cavallo di battaglia delle sue campagne politiche sia l'accettazione della globalizzazione, sia l'adattamento alla “nuova economia” e l'impiego del suo potenziale tecnologico per espandere le opportunità di lavoro e migliorare il tenore di vita. Particolarmente impegnato (ed esperto) in proposito era il vicepresidente Al Gore. Tutto ciò è stato riassunto nel programma della “Third way”, di cui dirò tra poco. Verosimilmente, dopo la crisi del 2000-2001, questa posizione netta ha contribuito alla perdita di consensi del Partito democratico. L'esperienza della crisi del 2000-2001, che era stata preceduta dalla crisi più grave, localmente, delle economie asiatiche del 1997, ha ridimensionato gli entusiasmi, mandando in soffitta le parole a vanvera, le previsioni ardimentose, le affermazioni selvagge, le formule magiche (buzz words, bold predictions, wild assertions, magic formulas) degli ideologi della “nuova economia” degli anni Novanta, con qualche contraccolpo. Sebbene le think tanks dei Democratici americani non sembrino cambiare rotta (proprio nel 2001 il Progressive Policy Institute ha avviato un Technology & New Economy Project di ricerca), diversi hanno preso, invece, a sostenere che ciò che viene chiamato con le espressioni “nuova economia” e “terza rivoluzione industriale” non è un fenomeno reale, ma una montatura delle banche e della stampa specializzata e qualcuno ha messo in dubbio che abbia apportato incrementi di produttività e benefici ai consumatori. Simili posizioni estreme non sembrano ragionevoli. È vero che il premio Nobel Robert Solow aveva enunciato nel 1987 il paradosso secondo cui vediamo i computer dappertutto, meno che nelle statistiche. Solow intendeva dire che nonostante i massicci investimenti nell'Ict, la produttività Usa è diminuita a partire dal 1960. Ci sono, però, diverse spiegazioni convincenti per il paradosso di Solow, oltre alle conclusioni di studi successivi secondo cui nei settori che hanno applicato intensivamente l'Ict almeno negli Usa la produttività è aumentata di più dei rimanenti. Una spiegazione si rifà all'esperienza di precedenti ondate di innovazione tecnologica avvenute in epoca storica: la macchina a vapore, l'elettricità e la dinamo, il motore a combustione interna, il telefono. Sono dovuti passare diversi decenni prima che la loro diffusione fosse abbastanza estesa per aumentare significativamente la produttività. Nonostante le innovazioni spettacolari già realizzate, l'high tech e l'Ict sembrano essere ancora agli inizi e fare parte di una tendenza di lungo periodo, in termini di sviluppo, oltre che di apprendimento da parte dell'uomo. Molti degli effetti e dei frutti sono ancora da venire. Chi vivrà vedrà, ma il parallelo storico è attraente.

Altre spiegazioni prendono in considerazione la diversa rilevanza delle applicazioni dell'Ict e di Internet per il calcolo del Prodotto interno lordo, con cui si misura lo sviluppo e la crescita della produttività. L'inserimento dell'Ict e di Internet nell'organizzazione ha portato un aumento di efficienza rispetto al passato in termini di raccolta di informazioni, di controllo e di decisione. L'informazione, la decisione e il controllo non entrano nel calcolo del Pil come tali, ma solo per i loro effetti. La gestione computerizzata e telematica ha migliorato la gestione delle scorte riducendone i costi. Però i costi di approvvigionamento e di gestione del magazzino sono, di regola, una piccola parte dei costi industriali totali e i relativi risparmi hanno trascurabile incidenza contabile sulla produttività totale. I vantaggi di Internet e dell'Ict sono rilevati solo se si traducono in diminuzioni di costi di produzione a parità di prodotto. La contabilità nazionale non rileva perciò le variazioni di utilità del consumatore. Se per acquistare un biglietto aereo in linea si impiega un cinquantesimo di tempo di una volta e si risparmiano le provvigioni dell'intermediario, il beneficio non compare nel Pil, anzi questo diminuisce per i minori ricavi delle agenzie di viaggio.

Le vicende degli anni Novanta e della bolla delle dot.com dimostra che bisogna rimanere con i piedi per terra, ancorati ai numeri e ai fatti empirici e mai credere alle vuote figure delle ideologie e agli inganni retorici. L'applicazione dell'innovazione tecnologica ha apportato benefici a chi sa avvalersene nella produzione, negli scambi, nella guerra, nella medicina, nell'intrattenimento e nell'istruzione, anche e soprattutto per acquisire, elaborare e trasmettere informazioni e comandi. Solo l'automazione realizzata con l'Ict ha permesso a molti settori di espandersi e ad alcuni (per esempio le banche e i servizi finanziari) di adattarsi all'incremento straordinario della domanda. Può essere che le nuove tecnologie abbiano anche aiutato a modificare in meglio il quadro macroeconomico. Peraltro, per i cambiamenti e i benefici in termini di sviluppo del reddito e dell'occupazione hanno avuto un ruolo preminente le riforme economiche e le liberalizzazioni avviate col 1980, là dove sono state attuate fino in fondo. Di esse dirò tra poco. Forse la stessa espressione “nuova economia” è fallace. In fondo, per molti versi non è cambiato niente rispetto al passato. Continuiamo a lavorare per guadagnarci da vivere, compriamo e vendiamo, dobbiamo consumare, risparmiare e investire come una volta e, soprattutto, anche le leggi e le regole di giudizio e di comportamento di una volta restano valide, nonostante il parere contrario predicato dai guru della “nuova economia”. Ciò vale tanto per i criteri di valutazione dei beni e delle attività e per gli effetti delle nostre decisioni sull'economia, quanto per le regole etiche.

Globalizzazione economica
Il secondo fenomeno, la globalizzazione economica, è l'adattamento delle imprese alla tendenza a realizzare un unico mercato mondiale o, per intanto, grandi aree di mercati aperti per merci, servizi, capitale e lavoro. Più estesamente, è l'integrazione delle economie in un'economia internazionale attraverso il commercio, gli investimenti esteri (delle multinazionali), i flussi di capitale a breve termine, i flussi internazionali di lavoratori e di popolazione e i flussi di tecnologie. Grandi aree di libero scambio sono state istituite tra il 1992 e il 1995 e nello stesso periodo Cina, India, Vietnam si sono aperti al sistema economico di mercato. Un quarto della popolazione mondiale è raggruppata in quattro aree più o meno integrate: spazio economico europeo (25 Stati dell'Unione europea, più Norvegia, Islanda e Liechtenstein: oltre 400 milioni di abitanti), Nafta, la North American Free Trade Agreement, che unisce Usa, Canada e Messico (oltre 400 milioni di abitanti) e Afta, l'Asian Free Trade Association (oltre 500 milioni di abitanti), i cui trattati sono stati stipulati nel 1992, Mercosur, il Mercado Común del Cono Sur (circa 250 milioni di abitanti) istituito nel 1995. Un altro quarantacinque per cento è rappresentato da India e Cina. L'Unione Europea ha, inoltre, stabilito rapporti commerciali privilegiati con i paesi degli ex imperi coloniali inglese e francese. Nel 1995, inoltre, è diventata operativa la Wto (World Trade Organization, che traduciamo in italiano con Organizzazione mondiale del commercio), nata con gli accordi stipulati al termine dell'Uruguay Round e operativa dal 1° gennaio 1995.

La Wto amministra gli accordi generali e speciali che regolano le tre grandi aree del commercio: il vecchio riveduto General Agreement on Tariffs and Trade (Gatt) per i prodotti agricoli e industriali, il General Agreement on Trade in Services (Gats) per i servizi e quello riguardante i Trade-Related Aspects of Intellectual Property Rights (Trips) per la proprietà intellettuale. Aderiscono alla Wto finora 148 Stati (un'altra trentina sono in lista d'attesa come osservatori) per un totale di circa il 97 per cento del commercio internazionale.

Le trasformazioni dei mercati finanziari sono la manifestazione reale di una globalizzazione economica quasi completa. Il numero e la varietà degli agenti (gli intermediari che vengono chiamati “operatori istituzionali”: banche, sim, sgr, fondi comuni d'investimento, fondi pensione eccetera) sono aumentati e la loro libertà di operare sui mercati è quasi illimitata, con la piena convertibilità delle valute raggiunta, almeno per i paesi occidentali. La borsa è, oggi, un mercato unico virtuale che si estende fino all'ultimo pc domestico autorizzato a operare in via telematica, in qualunque parte del mondo si trovi. Si noti che ciò vale non solo per le singole borse, ma per l'insieme di tutte le borse mondiali passate a operare telematicamente. La catena dall'input del primo ordine fino all'esecuzione finale e alla regolazione virtuale in conto del cliente può estendersi ai quattro punti della Terra, tanto più quanto più coincidono gli orari di apertura delle borse. In proposito, è recente la notizia che il New York Stock Exchange ha deciso di anticipare di due ore l'apertura, costringendo a una levataccia gli operatori per lavorare in contemporanea con gli europei.

Secondo i fautori della globalizzazione, l'apertura dei mercati dovrebbe favorire una sana concorrenza. Di fatto persistono tra i paesi, anche all'interno delle aree di libero scambio, disparità di tassazione, di regolamentazione, di definizione e di tutela dei property rights, di esternalità sociali non incorporate nei costi di produzione, che distorcono i meccanismi di mercato, snaturano la concorrenza e apportano ad alcuni malefici proprio in luogo di benefici. Toccano specialmente il nostro paese, per esempio, il caso del tessile, delle contraffazioni provenienti dall'Estremo Oriente, del dumping ben mascherato dei produttori esteri di certi beni (esempi: auto, elettrodomestici; ma anche materiali dell'edilizia, come il granito: quello vietnamita viene consegnato in Sardegna a un prezzo complessivo che è un quarto di quello del granito di Buddusò). Un tempo era possibile difendersi con dazi e barriere non tariffarie (fisiche, tecniche, o fiscali) oggi rimessi a una decisione della Commissione europea (cioè ai tecnocrati delle direzioni generali della Commissione), oppure vietati dagli accordi Wto. Questi prevedono che le dispute in materia di commercio internazionale siano giudicate, in primo grado, da un panel di tre o cinque esperti e, in secondo grado, da un Appellate Body, composto da sette esperti.

Delocalizzazione
Le imprese che producono e operano per il mercato mondiale, le global companies, si adattano con diverse strategie. Utilizzano, per esempio, strumenti legali e finanziari che aggirano vincoli di leggi e di standard locali restrittivi e penalizzanti (dal punto di vista delle imprese e delle altre organizzazioni che ricorrono a queste pratiche), oppure ricorrono alla delocalizzazione industriale, cioè al trasferimento degli stabilimenti in paesi dove il costo della manodopera è minore e la regolamentazione più permissiva. Nel settore manifatturiero, le imprese dei paesi avanzati tendono a spostare le produzioni a minor contenuto tecnologico di beni materiali e di servizi (per esempio i call center) nei paesi emergenti. Alcuni di questi (Cina e India in particolare) stanno però adottando tecnologie medio-alte e investono molto in ricerca e formazione, di modo che a medio termine i paesi avanzati perderanno la leadership mondiale. È in atto, sia pure agli inizi, anche una delocalizzazione dei centri di ricerca industriale nei paesi dell'Est europeo e in alcuni paesi emergenti che hanno un'elevata offerta di manodopera intellettuale a basso costo. In Cina e India operano già centri di ricerca in tecnologie avanzate. A medio termine, la delocalizzazione in questo campo porterà a una diminuzione della domanda di ricerca nei paesi avanzati (in Italia in particolare) e anche ciò contribuirà a indebolirne la leadership. Inoltre i paesi asiatici stanno scommettendo da un decennio ingenti risorse in ricerca e sviluppo e ciò contribuisce a mettere in pericolo la supremazia soprattutto degli Stati Uniti e dei due paesi europei (Francia e Regno Unito) che hanno fondato negli ultimi cinquant'anni sviluppo e potenza economica sull'invenzione e l'utilizzazione di nuove tecnologie.

Globalizzazione e localismi, no global e altre posizioni critiche
Non c'è solo tendenza alla globalizzazione economica, ma anche glocalizzazione, necessità per le multinazionali, i gruppi che hanno stabilimenti in paesi diversi, di adottare strategie e organizzazioni nuove per adattarsi al cambiamento di attitudini, alle specifiche regole e alle condizioni di ogni paese in cui operano.

Il terzo evento, imprevisto dai più, è la caduta del comunismo. La fine della guerra fredda con la demolizione del muro di Berlino (1989) e l'apertura al liberalismo economico e al regime di mercato dei paesi dell'Est, della Cina, dell'India, del Vietnam hanno avviato la globalizzazione politica, adozione di un regime costituzionale uniforme definibile in breve come mercato più democrazia. La globalizzazione politica non è stato appiattimento delle culture e sottomissione a un unico governo mondiale (nonostante la preminenza politico-militare degli Stati Uniti), ma si è accompagnata a una rinascita dei localismi, atteggiamenti di rivendicazione delle proprie peculiarità culturali, se non di chiusura, verso le altre, spesso sostenute da politiche attive dei governi. Proprio in quegli anni, mentre si rivela, la globalizzazione ha cominciato a essere un problema, nel bene e nel male, agli occhi di molti e a destare movimenti di opposizione, assai più che consensi.

La globalizzazione non piace a Verdi, ecologisti, sindacalisti, imprenditori, religiosi e, in genere, alle estreme di destra e di sinistra. Brilla per combattività l'attivismo di Jean-Marie Le Pen, in Francia, negli stessi Stati Uniti di Patrick Buchanan (il fondatore di The American Cause), dei gruppi di destra come i Patriots for the Defense of America e un po' dovunque dei populisti e di altri gruppi politico-sociali importanti. Il movimento anti-globalizzazione è soprattutto politico-militare con le ali organizzate molto potenti (in quanto molto supportate con denaro e protezione politica di diversi governi) dei no-global e di diverse Ngo (organizzazioni non governative) e del fondamentalismo religioso nei paesi dominati dall'Islam. L'obiettivo concreto dell'ostilità sono gli Stati Uniti.

Una posizione critica è stata assunta anche dalla Chiesa cattolica che, senza nominarla, ha coinvolto la globalizzazione nella condanna del neo-liberalismo, di cui dirò tra poco. Nell'esortazione apostolica Ecclesia in America del 22 gennaio 1999 di Giovanni Paolo II è scritto: «Not infrequently, this leads some public institutions to ignore the actual social climate. More and more, in many countries of America, a system known as neoliberalism prevails; based on a purely economic conception of man, this system considers profit and the law of the market as its only parameters, to the detriment of the dignity of and the respect due to individuals and peoples. At times this system has become the ideological justification for certain attitudes and behavior in the social and political spheres leading to the neglect of the weaker members of society»5.

Neoliberalismo, Monetarismo e Supply side economico
Il fondamento teorico della globalizzazione risiede nella ripresa del liberalismo negli Stati Uniti e in Gran Bretagna negli anni Ottanta, preparata da tre decenni di lavoro intellettuale in cui si distinguono due filoni: von Hayek, von Mises, la scuola austriaca da un lato e, dall'altro, la scuola di Chicago e pochi altri adepti economisti anglosassoni. Alla scuola di Chicago si devono il monetarismo, la supply-side economics e le ricerche, nate principalmente nell'ambito della nuova economia istituzionale, di economia industriale sull'efficienza delle imprese e sulla regolamentazione. La ripresa del liberalismo è stata sostenuta da importanti e influenti istituti di ricerca privati, alcuni di antica istituzione, per esempio, negli Usa, la Brookings Institution, il Cato Institute, la Century Foundation, l'Institute for International Economics (Iie), il Progressive Policy Institute (vicino al Partito democratico) e, in Inghilterra, l'Institute of Economic Affairs (Iea). Per distinguerlo dal liberalismo dell'Ottocento, il movimento è chiamato da alcuni neo-liberalismo. Politicamente l'affermazione del nuovo liberalismo coincide con le riforme avviate dal governo Thatcher in Gran Bretagna (1979-1990) e dall'Amministrazione Reagan negli Usa (1981-1989). Qui ha dato origine a una complessa trasformazione della politica, non solo economica, che si è imposta in tutto l'Occidente e negli ex paesi comunisti e che per molti versi si sta estendendo al resto del mondo. Tutto ciò ha rappresentato una svolta radicale dopo decenni di predominio assoluto delle dottrine e delle politiche economiche keynesiane, di quelle di pianificazione economica, marxista e non, del corporativismo fascista e del neo-corporativismo degli anni Sessanta e Settanta. I keynesiani, che non credevano nella legge di Say e nella spontanea stabilità della produzione o della crescita reale, pensavano di aver scoperto il modo sicuro di governare il ciclo economico e di promuovere la crescita dell'economia, la ridistribuzione del reddito e il benessere con un governo accurato (fine tuning) molto spinto dell'economia mediante la manovra della domanda globale tramite le imposte (tipicamente quella progressiva sul reddito) e la spesa pubblica, anche in disavanzo. L'eventuale deficit del bilancio statale (da coprire con l'emissione di moneta) era accettato come uno strumento per sostenere la piena occupazione, anche a costo di un po' di inflazione, connessa però a bassi livelli di disoccupazione. Le politiche da lavish spender di tanti governi fino agli anni Ottanta erano giustificate da questa dottrina. Per i monetaristi, invece, l'economia di mercato è di per sé stabile, anche nel tasso naturale di crescita, di modo che ogni fluttuazione dell'offerta di moneta al di là di questo tasso (per esempio per finanziare il deficit pubblico) è destinato a riflettersi sui prezzi e a generare inflazione (o deflazione). Questa teoria ha avuto conferme sul finire degli anni Sessanta quando le politiche keynesiane si sono rivelate inette a curare il nuovo fenomeno della stagflation (comparsa congiunta di stagnazione del reddito e di alti tassi di inflazione e di disoccupazione), precipitata nella crisi di iper-inflazione e di recessione del decennio successivo. Il monetarismo diventa politica operativa nel 1979 con la nomina, da parte del presidente (democratico) Carter, di Paul Volcker al Federal Reserve Board. A Volcker è succeduto nel 1987 Alan Greenspan, anch'egli monetarista e tuttora in carica.

La supply-side economics riprende le critiche monetariste a Keynes e i concetti dell'economia classica sul ruolo dell'offerta (legge di Say), del libero mercato e della neutralità dello Stato e propone una politica economica per incentivare lo sviluppo del reddito in condizioni di stabilità. Questa politica deve operare mediante una riduzione delle imposte e della spesa pubblica per restituire risorse al settore privato, mediante la crescita dell'offerta di moneta proporzionata con quella reale dell'economia e mediante riforme istituzionali che ristabiliscano la concorrenza anche internazionale nei mercati della produzione, dei capitali e del lavoro e che eliminino l'effetto della congerie di condizionamenti (regolamentazione, potere dei sindacati dei lavoratori, imprese pubbliche) che disincentivano il lavoro e l'attività di produzione e di investimento e impediscono al mercato di realizzare un impiego efficiente delle risorse. Dal punto di vista della politica sociale, piuttosto che tentare la ridistribuzione del reddito esistente con regolamentazioni e interventi che intralciano l'attività produttiva, conviene mirare allo sviluppo del reddito considerando che ogni suo aumento tende ad aumentare il benessere di tutti distribuendosi in mille rivoli (trickle-down effect, letteralmente effetto di sgocciolamento).

Reaganomics e Thatcherism
Con il presidente Reagan la politica economica statunitense si è ispirata ai precetti supply-side dando origine a ciò che è stata chiamata la Reaganomics (o Reaganism), cui è corrisposto nel Regno Unito il Thatcherism. Hanno contribuito a questa rivoluzione specialmente, ma non solo, Robert Mundell, premio Nobel per l'economia e Arthur Laffer, entrambi politicamente molto influenti per i molti incarichi di consulenza pubblica. Mundell (nato nel 1932, Nobel 1999 per l'economia), che ha studiato e insegnato anche a Chicago, è stato consulente di molte organizzazioni internazionali (Onu, Fondo Monetario Internazionale, Banca mondiale, Commissione europea), del Tesoro degli Stati Uniti, del Federal Reserve Board e di diversi governi sudamericani ed europei. Laffer (nato nel 1940), consulente di professione e per qualche tempo docente universitario, è stato membro dell'Economic Policy Advisory Board del presidente Reagan. A lui si deve la curva di Laffer, rappresentazione grafica dell'effetto determinato dall'aumento delle aliquote delle imposte sul reddito. Quando queste sono alte, un ulteriore aumento disincentiva il lavoro di produzione del reddito di modo che la riduzione dell'imponibile fa perdere il maggior gettito atteso dall'aumento delle aliquote. Inversamente una riduzione delle aliquote aumenta l'imponibile, compensando la perdita nominale di gettito. A partire dagli anni Sessanta un numero crescente di ricercatori ha preso a studiare gli effetti economici della regolamentazione pubblica, in particolare quella sui servizi pubblici (ovvero sul monopolio naturale), dei sussidi pubblici alle imprese e delle imprese di Stato. Messe in opera da più di un secolo ed estese col tempo, queste politiche erano giustificate con la necessità di rimediare ai cosiddetti casi di fallimento del mercato, cioè quelle situazioni in cui il mercato non sarebbe in grado di realizzare la migliore allocazione delle risorse per difetti della concorrenza o per altre cause. In grande maggioranza i nuovi studi concludevano adesso che le perdite di benessere collettivo causato dai casi di fallimento del mercato sono modeste rispetto al reddito nazionale e che, comunque, la regolamentazione e i sussidi alterano il funzionamento del mercato e producono inefficienze (sprechi, distorsioni nell'impiego, scoraggiamento della produzione e dell'innovazione, protezione di imprese inefficienti e distruttrici di valore e altro) che superano i benefici attesi. Si è dimostrato che in più di un caso la regolamentazione è stata richiesta dalle imprese di certi settori proprio per assicurarsi una rendita di monopolio o, almeno, la sopravvivenza, e che in altri casi il progresso della tecnologia ha fatto cadere le ragioni che facevano supporre il fallimento del mercato. Nello stesso periodo ricerche approfondite hanno dimostrato l'inefficienza delle produzioni industriali svolte dalle imprese pubbliche e direttamente all'interno dalle amministrazioni pubbliche. Inoltre, il progresso tecnologico dell'Ict ha modificato i mercati dei servizi pubblici dal lato dell'offerta introducendo alternative che li aprono a una certa concorrenza e che fanno cadere i presupposti del monopolio naturale. Su questi fondamenti l'Amministrazione Reagan ha avviato un processo di deregolamentazione (deregulation), mentre in Europa, specie nel Regno Unito e in Italia, che avevano costituito molte imprese pubbliche, si è dato corso a processi di privatizzazioni introducendo una regolamentazione sulle imprese di servizi pubblici privatizzate. Un po' ovunque è stata praticata una privatizzazione anche nelle forme di ricorso all'outsourcing (letteralmente: rifornimento all'esterno) e di trasferimento a carico dei cittadini utenti di parte dell'onere del welfare.

La dottrina e la politica della sinistra: la "Terza via"
Si qualifica solitamente il nuovo indirizzo come una politica di destra, ma a torto. È vero che essa è nata negli Stati Uniti sotto l'amministrazione repubblicana (dal 1981 al 1993) e nel Regno Unito sotto il governo conservatore (durato dal 1979 al 1997). Ma l'Amministrazione Clinton (Partito democratico), al potere dal 1993 al 2001 e il governo neo-laburista di Blair non hanno invertito la rotta. In Europa continentale, le riforme simili a quelle inglesi e statunitensi sono state avviate dalla sinistra: in Italia, per esempio, dai governi Prodi e D'Alema, in Germania dal governo Schröder e, in Francia, in parte anche dal governo social-comunista di Jospin. La politica dei neo-laburisti inglesi e dei Democratici americani ha stabilizzato, completandolo, il corpo delle riforme dei governi di destra che li hanno preceduti, aggiungendo anche novità e i governi socialisti europei le hanno applicate ex novo fin dove hanno potuto. Clinton e Blair hanno riassunto questa linea politica nel programma della “Terza via” (Third way).

Di “Terza via” Clinton aveva iniziato a parlare nella campagna elettorale del 1992, definendola di centro-sinistra. Blair ne ha utilizzato i concetti per la riforma del Partito laburista del 1994, conclusa con il manifesto New Labour, New Life For Britain del 1996. Blair stesso ha, poi, pubblicato un saggio sull'argomento (The Third Way, Fabian Society, 1998). Gli intellettuali e i consiglieri che hanno elaborato la dottrina della Third way fanno parte di alcune importanti think tanks: negli Stati Uniti il Democratic Leadership Council (Dlc) e il Progressive Policy Institute (Ppi), nel Regno Unito l'antica Fabian Society (ne sono membri circa 200 deputati laburisti), l'Institute for Public Policy Research e Demos. Un contributo individuale importante è stato dato dal sociologo Anthony Giddens, direttore della London School of Economics e consigliere di Blair con due libri: The Third Way: The Renewal of Social Democracy, 1998 (tr. it. 2001); The Third Way and Its Critics, 20006. Giddens è, per l'Europa, il principale teorico del nuovo progetto politico. Nell'aprile del 1999 Clinton ha invitato quattro primi ministri di sinistra europei (Blair, D'Alema, Schröder e l'olandese Kok) a partecipare a Washington a una tavola rotonda che aveva per argomento “The Third Way: Progressive Governance for the 21st Century”. Due mesi dopo, Blair e Schröder rilasciavano una dichiarazione congiunta bilingue sull'argomento (Europe: The Third Way/Die Neue Mitte, London, 8 June 1999). Nel luglio D'Alema e Blair incaricavano tre professori, l'italiano Boeri della Bocconi, Layard e Nickell della London School of Economics, di stendere uno studio sulla disoccupazione nei rispettivi paesi e sulle misure utili a contrastarla.

Lo studio (Welfare-to-Work and the Fight Against Long-term Unemployment, Report to Prime Ministers Blair and D'Alema) è stato consegnato nel giugno 2000 e i destinatari lo hanno presentato al Consiglio europeo di Santa Maria da Feira del 19-20 giugno 2000. Quest'ultima iniziativa è stata sommersa, in Italia, dalle critiche dell'opposizione interna ostile a D'Alema e non ha avuto seguito. Rappresentava un atto coraggioso e innovativo per l'ambiente politico italiano, il primo e l'unico compiuto nel nostro paese in più di un secolo da un leader di sinistra per rompere col passato. Il punto di partenza della dottrina della “Terza via” è se e come adattare i programmi politici a un mondo profondamente cambiato dalla tecnologia e dalla globalizzazione e rivolto totalmente verso un'economia di mercato. Non ci sono precedenti in proposito, se non l'isolata e contestata dichiarazione di Bad Godesberg con cui nel 1959 il Partito socialdemocratico tedesco, l'Spd, si impegnava molto genericamente a rispettare la disciplina del mercato. Per il resto, la sinistra europea non ha mai abbandonato i programmi socialisti, neanche dopo la caduta del muro di Berlino e quella statunitense aveva preso indirizzi ideologici per così dire massimalisti di fronte alla politica radicale di Reagan. Il proposito dei teorici della “Terza via” è di abbandonare le perdenti posizioni ideologiche massimaliste e di accettare, adattandolo, il cuore delle nuove dottrine che avevano fatto la fortuna della destra. Giddens chiarisce questo punto con un'ammissione esplicita: «No one, any longer has any alternatives to capitalism – the arguments that remain concern how far, and in what ways, capitalism should be governed and regulated» (pp. 43-44 dell'edizione inglese; la traduzione italiana sfuma la durezza della frase originale). I teorici della “Terza via” adottano i principali concetti del monetarismo e della supply-side economics (stabilità naturale del mercato; potere destabilizzante delle politiche macroeconomiche attive del governo; utilizzo della politica monetaria per contenere l'inflazione; politica monetaria sottratta ai politici e affidata a un organo indipendente, la banca centrale; validità della legge di Say) che la New Progressive Declaration7 statunitense inquadra sotto tre principi, tipici della cultura politica statunitense: pari opportunità, mutua responsabilità e autogoverno8 (equality of opportunity, mutual responsibility, and self-government). Nei documenti europei, secondo anche le lingue, si trovano altre denominazioni (fratellanza, solidarietà eccetera), ma la sostanza non cambia. Il programma della “Terza via” è stato definito la combinazione dell'economia neoliberale con una politica sociale di tipo socialdemocratico. I punti di maggior rilievo e che più differenziano la nuova politica socialdemocratica rispetto al passato sono: accettare la globalizzazione (nessun partito di centro-destra ha invece mai espresso pubblicamente questo principio), rivolgere l'attenzione ai cambiamenti demografici, in particolare all'invecchiamento della popolazione e riconoscere, di conseguenza, la necessità di una riforma del sistema delle pensioni, di indurre un aumento della popolazione attiva riducendo i sussidi e aumentando la mobilità del lavoro, di spingere gli individui a supportare se stessi contando più sul risparmio personale che sull'assistenza pubblica. In ciò viene ripresa una nuova ortodossia della Banca mondiale enunciata in un report del 1994 (Averting the Old Age Crisis) e sviluppata dall'Oecd (A Caring World. The New Social Policy Agenda, 1999). Le misure di privatizzazione della previdenza, proposte negli Stati Uniti dall'Amministrazione repubblicana guidata da George W. Bush, continuano di fatto sulla stessa linea.

Globalizzazione delle politiche economiche e global governance
L'inversione politica, riassunta da alcuni nel motto “meno Stato, più mercato”, non è però solo economica e non è stata uguale dappertutto. Iniziata intorno al 1980 prima negli Usa e nel Regno Unito e poi estesa a tutto l'Occidente e agli ex paesi comunisti, ha rappresentato, comunque, un netto cambiamento rispetto alle tendenze dell'intervento dello Stato che, per più di cento anni, avevano portato, in Occidente, a forme estese di economia amministrata e, nei paesi dell'Est, all'economia di tipo sovietico. L'indirizzo è stato sanzionato dal Washington consensus (dove consensus ha il significato di agreement, accordo) del 1989, una serie di riforme che la Banca mondiale riteneva necessarie per i paesi dell'America latina e che questi si impegnavano a realizzare. L'elenco è stato riassunto dalla Banca mondiale in dieci punti: contenimento del deficit pubblico, reindirizzo della spesa pubblica verso l'istruzione, la sanità e gli investimenti infrastrutturali, riforma tributaria con estensione della base imponibile e riduzione delle aliquote marginali, determinazione dei tassi di interesse e del tasso di cambio rimessa al mercato, liberalizzazione degli scambi, apertura agli investimenti esteri, privatizzazione delle imprese pubbliche, deregulation, garanzie istituzionali per i property rights. Le stesse condizioni sono state più o meno imposte dall'Unione Europea nell'assistenza ai paesi dell'Est ex comunisti e delle repubbliche sorte dalla dissoluzione dell'Urss. In Europa, in aggiunta alle privatizzazioni e al passaggio dal regime di servizio pubblico a quello di regolamentazione, i paesi che hanno aderito all'Unione economica e monetaria hanno adottato col Trattato di Maastricht del 1992 una rigida politica monetarista (non supply-side) e hanno cessato, almeno l'Italia, la politica di sussidio delle industrie nazionali. C'è una differenza importante tra la globalizzazione attuale e quanto si è verificato nell'Ottocento. Allora l'apertura delle frontiere e l'omogeneizzazione delle politiche e delle culture era un prodotto di imitazione e, per i paesi dell'Occidente, di trattati internazionali liberamente stipulati senza perdita di sovranità e liberamente denunciabili, senz'altra sanzione oltre a perdere i benefici, se c'erano, dei meccanismi e delle procedure stipulate. Oggi la globalizzazione è in buona parte opera di organizzazioni sopranazionali dalle quali è quasi impossibile uscire. In più, queste organizzazioni tendono a omogeneizzare il diritto9 e a ridurre la sovranità degli Stati e palesano un'inclinazione avanzata verso la global governance, ovvero il world government, concetto di governo mondiale predicato negli ambienti delle Nazioni Unite, oppure la governance, perseguita, nell'Unione Europea, di fatto sotto la propria guida dall'asse Francia-Germania. Si pensi alle istituzioni dell'Unione Europea e, in specie, sia ai poteri della Commissione di prelevare e di ridistribuire risorse, di limitare attività economiche (con ricadute negative sullo sviluppo locale: un esempio per l'Italia cisalpina sono le quote latte), di regolamentare minuziosamente prodotti e servizi,10 di giudicare e di sanzionare, sia ai poteri della Banca centrale europea di decidere la politica monetaria comune. Specie per i paesi aderenti all'Uem (l'Emu, Economic and Monetary Union), l'appartenenza all'Unione Europea ha comportato la perdita della sovranità monetaria, la soggezione a criteri restrittivi di politica fiscale soggetti a sanzioni sopranazionali,11 limiti alla manovra delle politiche agricole e industriali che, di fatto, li hanno quasi spogliati della sovranità anche in questi campi. Altrettanto invasivi sulla sovranità sono gli effetti delle organizzazioni che operano a livello globale: l'Onu, la Banca mondiale, il Fondo monetario internazionale, l'Oecd, di cui si è detto, la stessa Nato e il cartello dell'Opec (Organization of the Petroleum Exporting Countries), la Wto e l'Enforcement Branch per l'applicazione del Protocollo di Kyoto. Alla Wto è stato attribuito il potere esclusivo di decidere in via burocratica definitiva e insindacabile sulle controversie tra Stati rendendo difficoltoso e, in certi casi, praticamente impossibile difendersi contro pratiche commerciali scorrette con l'arma naturale della ritorsione e, inoltre, hanno abbattuto i dazi difensivi ed espongono i paesi avanzati (per esempio nel settore delle fibre tessili) alla concorrenza distruttiva di paesi emergenti dove i produttori non hanno vincoli e oneri in materia di condizioni del lavoro, welfare, rispetto dell'ambiente e si avvantaggiano di assenza o bassa tassazione. L'Enforcement Branch sarà lo strumento operativo dei meccanismi per costringere i paesi al rispetto delle prescrizioni del Protocollo di Kyoto sulle emissione di gas nell'atmosfera. Il costo ai paesi che supereranno i target potrà irrogare, a partire dal 2013, sanzioni che in termini di benessere danneggeranno, quando entreranno in vigore, più i paesi virtuosi che quelli che si vogliono sanzionare. Una terza fonte di omogeneizzazione sono le Ngo, cioè le organizzazioni internazionali non governative, di regola private, principalmente le organizzazioni tecniche, per esempio l'Iso (International Organization for Standardization, che ha per missione l'internazionalizzazione e l'unificazione degli standard industriali) e l'Iasb (International Accounting Standards Board), che elabora i principi contabili internazionali per le imprese private (Ias, International accounting standards). I principi e le regole predisposte dalle organizzazioni tecniche sono spesso recepite dalla normative della Comunità europea e degli Stati nazionali e diventano in tal modo cogenti o, almeno, indicative per il management. Infine, le organizzazioni di categoria (per esempio l'European Banking Association-Eba) e quelle di tendenza (Greenpace, Wwf eccetera), quando partecipano a conferenze o a comitati internazionali e anche solo col loro potere di pressione e persuasione morale e di mobilitare le masse, contribuiscono a creare modelli di condotta uniformi cui alle imprese e alle amministrazioni pubbliche torna difficile sottrarsi.

Opportunità e rischi: un bilancio della globalizzazione
Contrariamente a quanto predicano i suoi entusiasti missionari, la globalizzazione porta del bene e del male e non è una forza naturale incontenibile, ma una costruzione dell'uomo in parte a tavolino con i trattati e, per il resto, con le strategie delle imprese, con i comportamenti di tutti e con le omissioni dei governanti. Può essere fonte di opportunità favorevoli come di nuovi rischi. La globalizzazione è una costruzione caotica, nonostante gli sforzi dei suoi teorici, un sistema complesso in evoluzione che è la risultante di pressioni, favorevoli e contrarie, che arrivano da molte parti che hanno poche cose in comune e pochi interessi concordi: gli Stati Uniti e la Cina, il Wwf e l'Iso, la Chiesa e l'European Bah'i Business Forum per dare qualche indicazione sugli opposti. La globalizzazione attuale, a differenza di fenomeni simili del passato, tende verso un'attenuazione dell'autorità e dei poteri degli Stati, sempre più sottomessi alle decisioni di organizzazioni sopranazionali. Kenichi Ohmae, un attendo studioso di management, afferma che viviamo ormai in un mondo senza confini in cui gli Stati diventeranno una finzione e i politici nazionali stanno perdendo potere effettivo (The End of the Nation State. The Rise of Regional Economies, 1995; traduzione italiana del 1996). Infatti il mondo sta marciando verso un'attenuazione dell'autorità e del potere degli Stati, sempre più sottomessi a suggerimenti e decisioni superiori che non si possono rifiutare. Non a caso c'è chi predica la necessità di costruire un governo mondiale o, meglio, una struttura politica di global governance. Una global governance già esiste, seppure farraginosa e non gestita nell'interesse dei cittadini e dei consumatori ed è costituita per esempio da Nazioni Unite e dall'Unione Europea, per citare le più note e più importanti. Queste però sono finzioni giuridiche (l'Ue non ha nemmeno personalità giuridica distinta dalle tre Comunità) che delegano i compiti politici, economici e giudiziari che contano a strutture di tecnocrati che esse stesse costituiscono: per esempio, tra i tanti, alla Banca mondiale, al Fmi, al Wto, alle Direzioni della Commissione europea e alla Bce. Consegue che le decisioni che poi ricadono sugli Stati non sono elaborate e concordate dalle cancellerie di questi, ma sono prese e gestite autonomamente da tecnocrazie non democratiche, di tipo feudale (ognuna è investita dal suo superiore di una fetta di potere e di rendite monetarie che gestisce in proprio), non di rado corrotte e arrendevoli a lobbies generose, poste al di fuori del controllo dei destinatari, se si eccettuano le grandi potenze. In proposito, l'esperienza del tutto sfavorevole, se non in perdita, del nostro paese negli ultimi quindici anni meriterà un capitolo a parte.

 

Note
1. La liberalizzazione degli scambi internazionali è stata realizzata con otto negoziazioni commerciali multilaterali, dalla Conferenza di Ginevra del 1947, che aveva portato alla sottoscrizione dell'accordo generale sui dazi doganali e sul commercio (Gatt, General Agreement on Tariffs and Trade), all'Uruguay Round (1986-1994) che ha sostituito il Gatt con un'organizzazione permanente, la Wto (World Trade Organization).
2. L'Ict e Internet sono nate negli Stati Uniti per impulso e sotto la direzione del governo, militare e civile, che ne ha sostenuto lo sviluppo specialmente attraverso l'Advanced Research Projects Agency (Arpa), agenzia del Department of Defence, ordinando e finanziando la ricerca e le applicazioni presso laboratori e centri formalmente privati e università (per esempio la Rand Corporation, organizzazione privata non-profit istituita e sostenuta per iniziativa dell'Air Force). Così è avvenuto per i computer e le comunicazioni satellitari e specialmente per Internet, nata nel 1969 al termine di un decennio di studi teorici finanziati dalla Difesa come strumento di comunicazione militare e tra i ricercatori impegnati su supercomputer in progetti strategici. Nei primi anni Ottanta, scissa la parte di interesse militare, la rete di ricerca veniva affidata alla National Science Foundation (Nsf), un'agenzia federale indipendente, che provvedeva costruendo la grande dorsale del paese e lasciando ad altri enti, pubblici e privati, la gestione di reti regionali e locali. In queste cominciano a inserirsi anche privati ed enti non interessati ai supercomputer e nel 1992 la Nsf consente l'accesso generalizzato al traffico commerciale. In breve il numero degli utenti prende a crescere rapidamente, favorito dall'apertura del web. Raggiunta la massa critica, le strutture pubbliche di Internet sono state privatizzate tra il 1995 e il 1998.
3. Dot.com è denominazione in gergo delle società pure-click e significa “punto com”, dal suffisso “.com” che completa solitamente l'indirizzo dei siti commerciali.
4. Anche in Italia si sono avuti diversi casi di “ipo “(offerte pubbliche iniziali) sopravalutate. Tiscali, per esempio, è stata collocata nell'ottobre 1999, all'inizio della bolla speculativa, a un prezzo 300 volte superiore al book value (valore del patrimonio netto riportato nel prospetto informativo).
5. La traduzione italiana ufficiale è la seguente: «Non di rado, questo porta alcune istanze pubbliche a trascurare la situazione sociale. Sempre più, in molti paesi americani, domina un sistema noto come “neoliberismo”; sistema che, facendo riferimento ad una concezione economicista dell'uomo, considera il profitto e le leggi del mercato come parametri assoluti a scapito della dignità e del rispetto della persona e del popolo. Tale sistema si è tramutato, talvolta, in giustificazione ideologica di alcuni atteggiamenti e modi di agire in campo sociale e politico, che causano l'emarginazione dei più deboli». È curioso notare che la traduzione ufficiale in italiano rende neoliberalism con “neoliberismo”, che non è la stessa cosa.
6. Giddens ha, inoltre, curato l'edizione di The Progressive Manifesto. New Ideas for the Centre-left, una raccolta di saggi apparsa nel 2003.
7. Il documento (The New Progressive Declaration: A Political Philosophy for the Information Age), pubblicato il 10 luglio 1996, è stato redatto dal Democratic Leadership Council e dal Progressive Policy Institute e si trova insieme a molta altra documentazione aggiornata sul sito del Ndol (New Democrats Online).
8. Il concetto di autogoverno è espresso in termini rovesciati dal principio di sussidiarietà adottato dall'Ue per definire il corretto equilibrio di poteri nell'ambito della Comunità. Secondo il principio di sussidiarietà le funzioni di governo di livello più elevato dovrebbero essere le più limitate possibili e sussidiarie di quelle di livello più basso.
9. Questa tendenza è molto avanzata nei paesi dell'Ue. I giuristi sembrano non aver ancora riflettuto che nell'Unione europea si è formata una vasta legislazione sopranazionale che ha accelerato l'omologazione. Ciò porta in second'ordine i diritti degli Stati aderenti, che non possono derogare, se per farlo non hanno il peso politico nella Comunità, da certi principi e da certe norme cogenti di quella principale. Le norme nazionali stanno diventando una specie di legislazione municipale, col difetto di tutti i diritti municipali di portare varianti di traduzione, interpretazione e applicazione che aumentano l'incertezza e la confusione.
10. La lista di beni e servizi regolamentata dalla Comunità è vastissima e talvolta riguarda casi che sembrano futili, come la specificazione dell'altezza dei cani bassotti, dei requisiti minimi di qualità dei preservativi, delle dimensioni delle banane. Dietro a molte di queste statuizioni ci sono sicuramente gli interessi di lobbies potenti, non quelli di tutti e, in specie, dell'indifeso consumatore. Valgano gli esempi della pasta alimentare e del pane, che siamo costretti a importare in Italia anche se prodotti con farina di grano tenero e con l'aggiunta di additivi e coloranti proibiti dalla legge italiana; del miele, per il quale non si può più distinguere quello vergine nazionale da quello di importazione contraffatto con l'aggiunta di sciroppi zuccherini ricavati dal mais; del cioccolato, nel quale è ora ammesso fino al 5 per cento di “oli vegetali”, cioè di oli tropicali di cocco, di palma, di palmisti, oppure di burro di karitè e di illipe e altri grassi ricavati sempre da piante tropicali, i quali tutti hanno un alto contenuto di acidi grassi saturi altamente dannosi per cuore e arterie in quanto grandi induttori di colesterolo cattivo. 
11. I criteri fissati dall'art. 104 del Trattato istitutivo dell'Ue e dal Protocollo sulla procedura per i disavanzi eccessivi obbligano al contenimento del deficit pubblico entro il 3 per cento del Pil e del debito pubblico entro il 60 per cento del Pil. I criteri e le sanzioni non sono stati applicati ai due paesi (Francia e Germania) che dominano l'Unione e che per primi li hanno trasgrediti.

 

Gian Carlo Loraschi, professore di Scienza delle finanze alla Facoltà di Giurisprudenza dell'Università di Sassari, dove insegna inoltre Economia aziendale e Politica economica. È anche avvocato e, in precedenti occupazioni, è stato dirigente e consigliere di amministrazione di banche.

(c) Ideazione.com (2006)
Home Page
Rivista | In edicola | Arretrati | Editoriali | Feuilleton | La biblioteca di Babele | Ideazione Daily
Emporion | Ultimo numero | Arretrati
Fondazione | Home Page | Osservatorio sul Mezzogiorno | Osservatorio sull'Energia | Convegni | Libri
Network | Italiano | Internazionale
Redazione | Chi siamo | Contatti | Abbonamenti| L'archivio di Ideazione.com 2001-2006