Di globalizzazione si è cominciato a parlare intorno al 1990 (in precedenza, in questo senso il termine era sconosciuto) per indicare la crescita del commercio e dei flussi finanziari internazionali più veloce dell'economia mondiale e la tendenza delle economie a integrarsi e a essere sempre più interdipendenti, con ricadute sulle istituzioni politiche e sulle culture che tendono a uniformarsi, mentre si afferma l'inglese come lingua franca e il mondo, specialmente il management, si impregna di cultura statunitense. Qualcosa di simile è avvenuto diverse volte nella storia dell'umanità. Nell'antichità gli imperi assiro-babilonese, persiano, cinese e romano di fatto (cioè senza una dottrina economica e politica) avevano unificato in vaste aree lingua e cultura, aprendole agli scambi. Nell'Ottocento si è avuta la prima vera fase di globalizzazione mondiale, anche se non era chiamata così, col gold standard, con l'abbattimento delle barriere doganali che aveva portato a qualcosa di più di un aumento degli scambi internazionali. La formazione degli imperi coloniali e l'espansione russa verso est avevano creato una certa omogeneità in quattro quinti del mondo. Questo e il restante quinto avevano accettato abbastanza pacificamente molti elementi dell'organizzazione amministrativa, delle istituzioni, della cultura, dello stesso stile di vita europeo. La Turchia, per esempio, aveva adottato tal quale il codice penale italiano Zanardelli del 1889 e gli Stati arabi del Mediterraneo avevano accettato, bon gré mal gré, di interrompere la pirateria sul mare. L'assimilazione più rapida e completa, compiuta in due decenni dopo essere stata studiata a tavolino (una missione giapponese aveva visitato i maggiori paesi europei per studiarne le istituzioni e l'organizzazione), era stata quella del Giappone con l'avvento dell'epoca Meiji (1868). Inglese, francese, tedesco e russo erano diventate lingue franche internazionali o, quanto meno, lingue comprese nella maggior parte del mondo e usate anche come canale di diffusione della cultura.
Il fondamento teorico della globalizzazione ottocentesca era il liberalismo politico ed economico, in particolare la teoria dei costi comparati di Ricardo (1767-1823) e la legge di Say (1767-1832): istituzioni stabili e liberali e il mercato non distorto da interventi dello Stato (finanza pubblica neutrale, laissez faire) permettono alla gente e alle imprese dei vari paesi di produrre e di scambiarsi merci e servizi alle condizioni più convenienti e di specializzarsi nelle attività più vantaggiose per ciascuno secondo i rispettivi costi di produzione; l'offerta crea la sua domanda; possono aversi crisi economiche solo settoriali e solo temporanee in quanto offerta e domanda si correggono e adattano vicendevolmente in modo automatico. L'esperimento entra in crisi a fine secolo con l'emergere del nazionalismo protezionista tedesco e italiano e muore con la prima guerra mondiale. Al termine della seconda guerra mondiale, per iniziativa degli Stati Uniti si è cercato di dare un ordine politico alla comunità internazionale con l'Onu, a quello finanziario con la Banca mondiale e il Fondo monetario internazionale ed è stata riavviata su nuove basi la liberalizzazione degli scambi con gli accordi Gatt1.# Ciò non avrebbe però portato, verosimilmente, alla globalizzazione, così come oggi si manifesta, senza alcuni eventi imprevisti, tutti degli anni Novanta, che l'hanno fatta maturare nei suoi tre aspetti: scientifico-tecnologici, economici e politici.
Globalizzazione tecnologica e progresso scientifico
Il primo evento è stato indotto dallo sviluppo straordinario dell'high
tech, l'insieme delle applicazioni delle conoscenze scientifiche realizzate
negli ultimi quarant'anni. Rientra nell'high tech la tecnologia dell'informazione
e della comunicazione, cioè l'Ict (information & communication
technology), matrimonio tra software, computer, telefono e satellite che
ha permesso la trasmissione e l'elaborazione in tempo reale (o quasi reale)
delle informazioni e dei comandi, la costruzione della televisione via satellite
e, soprattutto, la nascita della rete di Internet. L'Ict, in cui confluiscono
l'elettronica, l'informatica (computer science) e le telecomunicazioni,
è un settore molto giovane di ricerca interdisciplinare. Dire che
cosa esso ci riserverà in futuro è lavoro da fantascienza,
ma il poco che già è stato realizzato fa conoscere tutto il
suo grande potenziale di innovazione e di cambiamento sociale. Oltre a rendere
la comunicazione istantanea per via elettronica e a realizzare con la tv
e Internet il “villaggio globale” preconizzato da McLuhan nel 1986, l'Ict
ha cambiato le tecnologie di produzione, l'organizzazione del lavoro, la
struttura delle organizzazioni e le strategie militari, ha rafforzato i
poteri di controllo e di decisione del top management, ha potenziato la
ricerca scientifica ed è uno strumento di diffusione delle culture.
Attraverso Internet, la gente da una parte esce dal guscio e accede alla
cultura dei paesi più progrediti e, dall'altra, sostiene e fa conoscere
la propria cultura locale, che altrimenti potrebbe estinguersi. L'Ict ha,
inoltre, portato nuovi modi di produzione, di scambio e di relazioni economiche
e nuove infrastrutture. Ha addotto, inoltre, nuovi beni al cui valore le
risorse materiali e le macchine concorrono meno della conoscenza e che costituiscono
la parte visibile, si dice, di una “nuova economia”. Le innovazioni dell'Ict
costituiscono il principale e indispensabile motore della globalizzazione
mondiale, almeno per la rapidità con cui si sta muovendo. L'high
tech, espressione che è usata come sostantivo e come aggettivo, è
abbreviazione di high technology industries. La denominazione compare già
negli anni Settanta per indicare ogni tecnologia che richiede apparecchiature
scientifiche sofisticate e applicazioni ingegneristiche avanzate nell'hardware
e nel software (cioè nella realizzazione di macchine e apparecchiature
materiali e nell'elaborazione di programmi per farle funzionare). Per estensione
si riferisce alle attività nuove che sono applicazioni dei grandi
progressi recenti delle scienze, che dipendono fortemente dalle innovazioni
tecniche e che producono beni e servizi nuovi o alquanto migliorati rispetto
al passato e, di solito, ad alto valore aggiunto. Un'industria high tech
ha un alto livello di spese in r&d (research and development, ricerca
e sviluppo), ha una domanda elevata di personale ad alta qualificazione
tecnico-scientifica (ingegneri, medici, biologi, informatici, ricercatori
in genere e tecnici di laboratorio) e, di solito, è costituita da
imprese di nuova o recente costituzione, dette start up, con forti tassi
di crescita in essere o attesi. Ci sono, però, imprese tradizionali
che hanno sviluppato divisioni interne high tech. I settori high tech sono
tipicamente quelli delle biotecnologie, dei farmaci, delle apparecchiature
medicali, della nanotecnologia, della nanotecnologia molecolare e le industrie
avanzate dell'Ict.
Il procedere della diffusione nel mondo delle conoscenze scientifiche e delle loro applicazioni e le loro ricadute costituiscono la globalizzazione scientifico-tecnologica, che è fondamentalmente globalizzazione dell'informazione e della conoscenza. È ragionevole pensare che la globalizzazione dei prodotti del progresso scientifico-tecnologico sia inarrestabile nei prossimi anni, cioè nel medio termine. L'esperienza del passato dimostra che è generalmente avvenuto così e che la scoperta di una nuova conoscenza o di una nuova tecnologia viene accettata non appena l'uomo ne scopre l'utilità. La diffusione delle scoperte del fuoco, dell'agricoltura, della ruota, dei metalli, per fare qualche esempio, è avvenuta abbastanza rapidamente, nonostante le difficoltà di comunicazione tra la gente, poco numerosa e dispersa nei continenti. È invece avventato fare previsioni a lungo termine sui progressi futuri della ricerca scientifica e dello sviluppo delle sue applicazioni, ma, almeno per il momento, non si vedono inversioni di marcia. Per la contingenza, va ricordato che fermare il progresso scientifico, non avere industrie high tech, non adottare nuove tecnologie significa destinare un paese all'arretratezza e all'emarginazione. Globalizzazione dell'informazione e delle conoscenze tecnologiche non significa però globalizzazione della cultura e nemmeno assicura la diffusione di modelli di moralità e di democrazia migliori, secondo un dato punto di vista. Da questo secondo punto di vista, la globalizzazione è un prodotto dell'evoluzione culturale e l'evoluzione prosegue a suo modo, sorda e cieca verso i sentimenti e le aspirazioni umane.
Globalizzazione e nuova economia
Figlia dell'Ict e altro aspetto della globalizzazione è stata la
“nuova economia” (new economy), nozione controversa poiché, a fianco
dei benefici in termini di produttività e di trasparenza, ha portato
problemi nuovi e complessi e può configurare casi di fallimento del
mercato in danno dei consumatori. Inoltre, intorno alla “nuova economia”
negli anni Novanta sono sorti miti pericolosi che hanno alimentato una bolla
speculativa seguita, nel 2001-2002, da una crisi di diverse industrie dei
nuovi settori anche high tech. Dopo di che l'entusiasmo dei professori e
dei giornalisti è scomparso e con esso è cessata quasi del
tutto la pubblicazione di libri e articoli sull'argomento. C'è anche
chi pensa che la “nuova economia” sia stata un'invenzione della stampa finanziaria
e delle banche interessate a lucrare sui collocamenti. Tuttavia gli effetti
dei nuovi servizi suscitati dall'Ict e il loro valore aggiunto in termini
monetari e di utilità per il consumatore (si pensi per fare un esempio
al trading on line, agli sviluppi delle tecniche dell'informazione e dei
settori produttivi connessi e strumentali) sono un fatto acquisito che contribuisce
alla globalizzazione. L'argomento richiede perciò una digressione
appropriata.
L'espressione new economy, che compare negli anni Novanta in contrapposizione alla old economy (“vecchia economia”, la produzione e gli scambi compiuti con le procedure e i metodi tradizionali), indica l'ambito delle organizzazioni, private o pubbliche, vecchie e nuove, che hanno impostato intensivamente sull'Ict e su Internet parte della loro attività o tutta la loro attività, ossia tanto l'organizzazione della produzione e delle relazioni amministrative interne, quanto le relazioni con i fornitori, i clienti e gli utenti, gli azionisti e gli altri interessati. «Riorganizzazione, attuata attraverso l'informazione e l'innovazione, dell'assetto produttivo operante» è definita la “nuova economia” nelle Considerazioni finali della Relazione della Banca d'Italia per il 1999. Con un po' di enfasi, è stato detto che l'Ict ha prodotto la terza rivoluzione industriale (intendendosi che una prima origina nel Settecento dalla macchina a vapore e una seconda verso la fine dell'Ottocento dalla dinamo e dall'elettrotecnica) capace di modificare radicalmente il mercato dei beni e del lavoro, di mutare le relazioni tra governo e cittadini, di influenzare la politica economica e di assicurare un'era di prosperità e di sviluppo. Dal punto di vista dell'organizzazione dei mercati e delle relazioni con le controparti (cittadini, fornitori, clienti, altre organizzazioni), l'aspetto evidente a tutti è la nascita dell'e-business con Internet e l'apertura di vetrine e sportelli virtuali, i “portali”, che affiancano le strutture materiali già esistenti (uffici, sportelli, saloni espositivi, negozi eccetera). Ciò è avvenuto non solo per le imprese, ma anche per le altre specie di organizzazioni e cioè amministrazioni pubbliche, partiti, università, sindacati, chiese e altre istituzioni, che si sono dotati, anch'essi, di un portale, cioè di siti web disegnati per presentare informazioni su se stessi e altre notizie in maniera organizzata e (non sempre) di facile consultazione, per dare accesso a informazioni che riguardano l'utente con possibilità di avere certificati, pagare imposte e canoni eccetera. Sono sorte, inoltre, anche organizzazioni pure-click, prima di Internet ovviamente impossibili, che mantengono le relazioni con clientela, fornitori e terzi esclusivamente in linea sul web (attraverso il portale, per esempio: Amazon, eBay, Yahoo!, Google, Tin.it-Virgilio, le banche on-line e le divisioni on-line che non ripetono virtualmente attività del nucleo industriale e commerciale tradizionale delle imprese di cui fanno parte). La nuova tecnologia apporta benefici importanti in termini di maggiori utilità. Le informazioni vengono acquisite, elaborate e ritrasmesse in tempo reale a un costo ridotto. Chiunque può utilizzare la rete per informarsi e comunicare per iscritto, a voce e per immagini. Le piccole imprese, prima confinate a ristretti mercati locali, possono accedere a mercati più estesi, anche internazionali, per approvvigionarsi, o per vendere attraverso un sito web costruibile e mantenibile con un costo modesto. Aumenta la trasparenza e la concorrenza di cui si avvantaggiano produttori e consumatori.
Di “nuova economia” si è parlato anche in termini macroeconomici sostenendo, negli Stati Uniti, che i progressi dell'Ict sono la forza trainante di un'accelerazione della produttività, riscontrata nella seconda metà degli anni Novanta, che grazie a questa accelerazione gli Stati Uniti possono permettersi tassi di sviluppo superiori al passato senza soffrire di inflazione elevata. Di conseguenza, la Federal Reserve poteva adottare un “nuovo paradigma” d'azione, favorevole a un allentamento della politica monetaria. La discesa dell'inflazione ai minimi storici, il forte aumento dell'occupazione e la crescita record del reddito erano i tre indici che smentivano il vecchio paradigma neoclassico della curva di Phillips, secondo cui tanto minore è la disoccupazione, tanto maggiore è la crescita dei prezzi, ovvero che la disoccupazione si può ridurre, ma a costo di un alto tasso di inflazione. Diminuivano anche i tassi di interesse, scendendo a un livello sconosciuto da cinquant'anni. Il futuro promesso era un'utopia di capitalismo anarchico e di tecnocrazia libertaria, un mondo flessibile senza regole rigide, dove la comunicazione è immediata, qualsiasi bisogno soddisfatto dal mercato o dalla Rete e lo Stato ridotto al minimo dalle nuove tecnologie. Nella “nuova economia” l'inflazione e il ciclo economico sarebbero stati definitivamente domati, i redditi avrebbero continuato ad aumentare, almeno per un tempo abbastanza lungo e le quotazioni di borsa erano destinate a salire senza sosta.
Soprattutto negli Stati Uniti, sociologi, politici, economisti, analisti finanziari e stampa specializzata hanno dato della “nuova economia” un'interpretazione ristretta. A differenza delle precedenti, la terza rivoluzione sembrerebbe concentrarsi in capitale e prodotti immateriali, costituiti da conoscenze e informazioni a disposizione di tutti gli utilizzatori. Software, videogame, media, database e archivi elettronici, biotecnologie, la stessa Internet e tutti i servizi, profit e non profit, che essa offre in Rete, sono esempi dei nuovi prodotti di questa specie, detti digitali, o di conoscenza (knowledge products; beni informativi è la traduzione proposta in italiano). Donde le denominazioni di digital economy e network economy (generalmente abbreviato in net-economy) e anche weightless economy (economia senza peso, dematerializzata). Quest'ultima denominazione precisa gli aspetti della dematerializzazione di diritti, titoli, servizi e rapporti, migrati dal supporto documentale cartaceo a quello digitale (si pensi ad azioni, obbligazioni e titoli di Stato, ordini di acquisto in linea eccetera), della comparsa di nuovi prodotti esclusivamente digitali e dell'accrescersi della quota dei prodotti digitali e di conoscenza per peso e per valore nel prodotto lordo nazionale. Internet economy, information economy, knowledge economy sono altre espressioni, un po' ambigue, considerate sinonimi.
Il concetto di massa critica
Caratteristica importante dei network che interessano la “nuova economia”
è la presenza di esternalità di Rete (network externalities)
dal lato del consumatore e da quello del fornitore. Per il primo l'utilità
di accedere al servizio aumenta col numero delle persone connesse, a cominciare
da zero quando l'utente è uno solo. Ciò significa che, dopo
un inizio stentato, se è stimolato da una buona politica commerciale
o se è supportato dal governo, il mercato cresce e, a un certo punto,
il numero raggiunge una massa critica che provoca un'esplosione della domanda.
La nozione di massa critica è cruciale per comprendere gli effetti
delle esternalità di Rete. Spiega, intanto, il ruolo determinante
delle politiche pubbliche degli Stati Uniti nello sviluppo dell'Ict e per
la nascita di Internet, anticamera della “nuova economia”2. Spiega, anche,
come mai le imprese cercano di raggiungere la massa critica con politiche
di prezzi stracciati, nella speranza di veder poi crescere rapidamente la
domanda, ovvero come mai, se perdono abbastanza quote di mercato nel confronto
con la concorrenza, esse vedono regredire la domanda fino al punto che un
prodotto (o la stessa impresa) scompare. Così, per esempio, è
avvenuto per il Betamax di Sony a vantaggio del vhs di Jvc, per il sos di
Apple e per il pcos di Olivetti rispetto allo msdos di Microsoft.
Le imprese, inoltre, una volta raggiunta una quota stabile e significativa del mercato, si avvantaggiano del fatto che i prodotti e i processi digitali sono path dependent, dipendono dal percorso, ovvero dalle scelte precedenti. In presenza di standard diversi, per passare a un altro fornitore l'utente sopporta costi (monetari o percepiti psicologicamente), detti switching cost (espressione traducibile in italiano con costi di trasferimento, o di migrazione; alcuni traducono meno bene con costi di transizione), oppure lock-in costs (letteralmente costi di bloccaggio). Se i costi sono abbastanza alti, l'utente non migra, neanche se il nuovo fornitore possiede tecnologie più efficienti. Questa condizione, in cui la rete della clientela diventa prigioniera del fornitore iniziale, comune in tutte le produzioni Ict, rende imperfetta la concorrenza ed è la leva che permette strategie commerciali di “blocco proprietario” (proprietary lock-in) con cui il fornitore costruisce una rete stabile di clienti, acquisisce una posizione dominante e ricava extra-profitti dallo sfruttamento del mercato. Il successo non è, però, garantito né è duraturo. In passato, il progresso tecnologico era una faccenda di anni, o di decenni, e c'era il tempo di fermarsi per godere abbastanza dei benefici delle proprie innovazioni, prima che queste diventassero obsolete. Oggi, almeno nell'high tech e nell'Ict, l'obsolescenza matura nell'arco anche di pochi mesi e l'imprenditore, come la Regina rossa del Viaggio attraverso lo specchio di Lewis Carroll (l'autore di Alice nel paese delle meraviglie), per restare al suo posto e mantenere le quote di mercato deve correre il più velocemente possibile. Poiché può limitare la concorrenza e impedire così al mercato di impiegare le risorse nel modo più efficiente possibile e di soddisfare al meglio i consumatori, il “blocco proprietario” è oggetto di attenzione delle autorità antitrust. Ciò avviene in particolare per i contratti di esclusiva, con cui si vincolano i clienti a non avere relazioni economiche con la concorrenza e con il tying, con cui si obbliga il cliente ad acquistare un certo prodotto abbinato ad un altro di cui si ha il monopolio. È il caso di Microsoft, due volte indagata negli Stati Uniti. Diverso è il caso della condanna inflitta l'anno scorso a Microsoft dall'Unione Europea. La legislazione europea è stata scritta per difendere le imprese dalla concorrenza e la decisione è stata ispirata dalla politica anti-americana di Francia e Germania. Altro problema è la tutela della proprietà intellettuale che va oltre l'ambito dei beni digitali, estendendosi a tutto l'high tech e a ogni prodotto dell'ingegno, composto di informazione e conoscenza. L'informazione e la conoscenza sono costose da creare e da sviluppare, ma si riproducono a buon prezzo, o senza prezzo monetario. Queste caratteristiche facilitano la circolazione della conoscenza, ma rendono difficile riservarsi lo sfruttamento esclusivo della propria invenzione, senza il riconoscimento da parte della legge di un diritto di proprietà intellettuale (intellectual property right) e la tutela con la concessione di un brevetto o di un copyright. La concessione è considerata uno strumento indispensabile per il progresso della ricerca e dello sviluppo tecnologico. Non sempre e non dovunque la proprietà intellettuale è però tutelata. Non erano in Italia brevettabili fino al 1975, per esempio, i farmaci e le nuove varietà vegetali. Non tutti i paesi riconoscono di diritto o di fatto le convenzioni internazionali sulla tutela: si pensi alla Cina e ai paesi del terzo mondo. Brevetti e copyrights non sono sempre rispettati né sono amati neanche nei paesi occidentali. La mancanza di rispetto è facilitata dallo stesso progresso tecnico. Si pensi alla consuetudine illegale della fotocopia di libri e della copia non autorizzata di cd e software, grazie alla disponibilità di macchine di riproduzione efficienti e poco costose.
Proprietà intellettuale e open source
Quanto all'insofferenza, per il software esiste il movimento, del tutto
legale, dell'open source, di cui è grande animatore lo statunitense
Richard Stallman, hacker e poi attivo fondatore del movimento Free Software,
del gnu project, della Free Software Foundation e della League for Programming
Freedom. Per comprendere i propositi del movimento bisogna ricordare che
ogni software prima è scritto in linguaggi artificiali (Basic, Fortran,
Cobol, C++, Java, Lisp, Pascal, Phyton, Prolog eccetera) comprensibili al
programmatore e, poi, viene tradotto con speciali programmi in linguaggio
macchina. Questo è basato sul sistema binario, l'unico comprensibile
dal computer, ma praticamente illeggibile per l'uomo. Purtroppo l'operazione
non è reversibile, cioè non si può tornare dal linguaggio
macchina al programma originario. Per questo motivo, se il software viene
consegnato solo in linguaggio macchina senza codice sorgente (è cioè
closed source), non si capisce come è fatto, non si può controllare
come lavora e non lo si può correggere, migliorare o integrare con
implementazioni. Un software del genere è detto “proprietario” (proprietary
software), tanto se è fornito a pagamento, quanto se gratis. L'espediente
è il migliore a disposizione delle strategie di difesa del segreto
industriale e del brevetto e del copyright, che in questo modo sono però
adoperate anche per il controllo del mercato e per lo sfruttamento del network.
Il movimento per l'open source, sorretto anche da imprese e fondazioni private,
propone la liberalizzazione del codice sorgente e combatte l'estensione
della brevettabilità del software. Un esempio notevole di open source
è il linguaggio html, costruito da Tim Berners-Lee nel 1991 presso
il Cern, messo gratuitamente a disposizione di chiunque. Altro software
open source è Linux, un sistema operativo compilato dal finlandese
Linus Benedict Torvalds, che lo ha pubblicato nel 1991. Open source, si
noti, vuol dire utilizzo gratuito, o quasi (si ammette il pagamento di diritti
per il rimborso di spese di duplicazione e di spedizione) del codice sorgente
per lo sviluppatore, non software gratis per il consumatore finale. Grandi
sponsor dell'open source sono società produttrici di hardware e software
(Ibm per esempio), non per ragioni ideali, però, ma in funzione contingente
anti-Microsoft. Le stesse società, infatti, compaiono in un gruppo
di circa 200 produttori, che comprende, tra gli altri, Hp, Ibm, Intel, Adobe,
Amd, Fujitsu-Siemens, Gateway, Motorola, Samsung, Toshiba e la stessa Microsoft,
costituitosi nel 1979 per sostenere un progetto, denominato Trusted Computing
Platform, in sigla tcp, che dovrebbe aumentare la sicurezza dei personal
computer, specie nel commercio elettronico, ma che di fatto escluderebbe
ogni software non approvato dal consorzio della tcp. A sostegno del progetto
del gruppo per due volte è stato presentato da diversi senatori del
Partito democratico un progetto di legge federale nel 106° e 107°
Congresso, non trasformato in legge. La tcp, se imposta per legge, diventerebbe
un formidabile strumento di tutela a tempo indeterminato della proprietà
intellettuale.
La bolla speculativa delle dot.com
Legate alla “nuova economia” sono, purtroppo, le vicende di una delle più
grandi bolle speculative della storia, che tra il 2000 e il 2002 ha bruciato
in borsa e fuori borsa molte fortune di chi, come Pinocchio, si è
abbandonato per avidità all'illusione di pronte e grandi miracolose
fortune. Era comparsa negli anni Novanta, una teoria della crescita del
valore delle dot-com3. La teoria si basava sulle “leggi” di Metcalfe e di
Reed. Il primo, inventore di Ethernet, sosteneva che il valore di una Rete
cresce al quadrato del numero degli utilizzatori (n2), il secondo, ricercatore
al mit, che il valore di una Rete, capace di suscitare la formazione di
una comunità di utenti, cresce esponenzialmente in base 2 secondo
il numero degli utilizzatori (2n). Questa teoria, priva di verifiche sperimentali,
ha fatto più male che bene allo sviluppo della nuova economia. Gli
algoritmi delle due “leggi” hanno portato a concludere che le economie di
Rete sono facilmente e rapidamente sfruttabili nel mercato vergine della
new economy e promettono di poter raggiungere in fretta la massa critica
per entrare nell'area del profitto. Di conseguenza le dot.com sono l'archetipo
del futuro prossimo, dove i giganti dell'old economy sono destinati a scomparire
o a essere ridimensionati. I vincitori di domani sono le start up, le nuove
società di oggi. Con l'apparente fondamento scientifico delle leggi
di Metcalfe e di Reed era sorta un'ideologia (da alcuni denominata Wired
ideology, dal nome della rivista Wired Magazine di San Francisco che più
l'ha propagandata) che ha infatuato la gente nell'ultimo decennio del Novecento,
suscitando le illusioni cui è dovuta la bolla speculativa delle dot.com
(dot.com bubble) del 1999-2000. La visione è stata estesa a tutte
le società high tech di nuova costituzione. I tradizionali, consolidati
criteri di valutazione delle imprese e delle azioni, si diceva, non valgono
più. Chi non entra nel nuovo corso è destinato a essere spazzato
via e chi vi si inserisce diventerà favolosamente ricco. Solo i pusillanimi
continuano a credere alle vecchie leggi economiche e della pratica finanziaria
e vogliono ancora vedere i profitti e il patrimonio netto prima di investire.
Banche e riviste specializzate hanno contribuito a creare questo clima innaturale
di fiducia che ha permesso, fino al 2000, di raccogliere nei mercati di
borsa specializzati per le dot.com e i titoli high tech (per esempio in
Italia il Nuovo Mercato, negli Usa il Nasdaq) grandi somme con offerte pubbliche
di azioni (ipo: initial public offer) anche di società in perdita
e di società nuove che non avrebbero mai guadagnato. Manager avidi
e spregiudicati o improvvisati avevano scoperto come permettersi spese faraoniche
e come arricchirsi rapidamente alle spalle dei risparmiatori. Un caso da
manuale è stata la Kozmo.com, che nel 1998 aveva raccolto con un'ipo
280 milioni di dollari vantando l'inverosimile oggetto sociale di vendere
con consegna a domicilio entro un'ora qualsiasi piccolo prodotto, da un
dvd a un caffè, senza spese per il destinatario. La Kozmo.com è
poi fallita nel 2001 senza residuo attivo per gli azionisti. La gente sembrava
invasata da una cupidigia del denaro (greed is good!) cieca e sorda alle
regole della prudenza e dell'etica4. La bolla delle dot.com del 1999-2000
ha seguito la strada comune a tutte quelle che l'hanno preceduta. A un certo
punto il mercato ha preso ad attirare sempre più denaro dagli speculatori
professionali, cui si sono accodati risparmiatori inesperti che si affacciavano
per la prima volta alla Borsa e che hanno ingrossato il flusso dei capitali.
Le quotazioni sono, quindi, lievitate in maniera esplosiva in brevissimo
tempo, tra novembre 1999 e gli inizi di marzo 2000, fino a livelli astronomici,
superiori a quelli delle grandi imprese tradizionali ben patrimonializzate
e con ottimi margini di profitto. In tre mesi, le quotazioni a Milano del
Nuovo Mercato sono salite mediamente del 1750 per cento, mentre il mercato
delle azioni tradizionali rimaneva stabile. Lo stesso comportamento hanno
avuto gli altri grandi mercati specializzati, principalmente il Nasdaq americano,
l'Aim londinese, il Nouveau Marché francese, il Neuer Markt tedesco.
Il 10 marzo 2000 la bolla è collassata simultaneamente in tutti questi
mercati con un crollo dei prezzi in due mesi rapido quanto era stata la
crescita. Chi avesse comprato azioni dot.com il 10 marzo 2000 avrebbe perso
a oggi mediamente il 97 per cento del capitale. La crisi ha trascinato i
titoli delle imprese di telecomunicazioni e high tech. Tra il 2001 e il
2002 molte dot.com e società high tech si sono trovate in difficoltà
e molte altre sono fallite mettendo in crisi l'indotto, sotto il peso dei
debiti e di scandali contabili. Circa duemila società delle oltre
cinquemila quotate al Nasdaq prima della crisi sono scomparse dal listino,
le più per fallimento. In Europa il Neuer Markt tedesco è
stato chiuso, travolto da fallimenti, scandali e processi penali.
L'illusione liberal della new economy
Specialmente negli Usa, la dottrina della “nuova economia” apportatrice
di grandi trasformazioni, di benessere e di progresso nelle relazioni sociali
e politiche è stata accettata negli anni Novanta da parecchi, nelle
università e nei centri di ricerca, indipendentemente dallo schieramento
politico. Da destra ci si rallegrava un po' pensando passivamente che la
“nuova economia” consisteva in una riduzione del peso dello Stato e in una
riattivazione dei meccanismi di libero mercato. Più articolata, invece,
era la posizione da sinistra, in specie quella del Partito democratico statunitense
che, fin dal 1992, ha fatto cavallo di battaglia delle sue campagne politiche
sia l'accettazione della globalizzazione, sia l'adattamento alla “nuova
economia” e l'impiego del suo potenziale tecnologico per espandere le opportunità
di lavoro e migliorare il tenore di vita. Particolarmente impegnato (ed
esperto) in proposito era il vicepresidente Al Gore. Tutto ciò è
stato riassunto nel programma della “Third way”, di cui dirò tra
poco. Verosimilmente, dopo la crisi del 2000-2001, questa posizione netta
ha contribuito alla perdita di consensi del Partito democratico. L'esperienza
della crisi del 2000-2001, che era stata preceduta dalla crisi più
grave, localmente, delle economie asiatiche del 1997, ha ridimensionato
gli entusiasmi, mandando in soffitta le parole a vanvera, le previsioni
ardimentose, le affermazioni selvagge, le formule magiche (buzz words, bold
predictions, wild assertions, magic formulas) degli ideologi della “nuova
economia” degli anni Novanta, con qualche contraccolpo. Sebbene le think
tanks dei Democratici americani non sembrino cambiare rotta (proprio nel
2001 il Progressive Policy Institute ha avviato un Technology & New
Economy Project di ricerca), diversi hanno preso, invece, a sostenere che
ciò che viene chiamato con le espressioni “nuova economia” e “terza
rivoluzione industriale” non è un fenomeno reale, ma una montatura
delle banche e della stampa specializzata e qualcuno ha messo in dubbio
che abbia apportato incrementi di produttività e benefici ai consumatori.
Simili posizioni estreme non sembrano ragionevoli. È vero che il
premio Nobel Robert Solow aveva enunciato nel 1987 il paradosso secondo
cui vediamo i computer dappertutto, meno che nelle statistiche. Solow intendeva
dire che nonostante i massicci investimenti nell'Ict, la produttività
Usa è diminuita a partire dal 1960. Ci sono, però, diverse
spiegazioni convincenti per il paradosso di Solow, oltre alle conclusioni
di studi successivi secondo cui nei settori che hanno applicato intensivamente
l'Ict almeno negli Usa la produttività è aumentata di più
dei rimanenti. Una spiegazione si rifà all'esperienza di precedenti
ondate di innovazione tecnologica avvenute in epoca storica: la macchina
a vapore, l'elettricità e la dinamo, il motore a combustione interna,
il telefono. Sono dovuti passare diversi decenni prima che la loro diffusione
fosse abbastanza estesa per aumentare significativamente la produttività.
Nonostante le innovazioni spettacolari già realizzate, l'high tech
e l'Ict sembrano essere ancora agli inizi e fare parte di una tendenza di
lungo periodo, in termini di sviluppo, oltre che di apprendimento da parte
dell'uomo. Molti degli effetti e dei frutti sono ancora da venire. Chi vivrà
vedrà, ma il parallelo storico è attraente.
Altre spiegazioni prendono in considerazione la diversa rilevanza delle applicazioni dell'Ict e di Internet per il calcolo del Prodotto interno lordo, con cui si misura lo sviluppo e la crescita della produttività. L'inserimento dell'Ict e di Internet nell'organizzazione ha portato un aumento di efficienza rispetto al passato in termini di raccolta di informazioni, di controllo e di decisione. L'informazione, la decisione e il controllo non entrano nel calcolo del Pil come tali, ma solo per i loro effetti. La gestione computerizzata e telematica ha migliorato la gestione delle scorte riducendone i costi. Però i costi di approvvigionamento e di gestione del magazzino sono, di regola, una piccola parte dei costi industriali totali e i relativi risparmi hanno trascurabile incidenza contabile sulla produttività totale. I vantaggi di Internet e dell'Ict sono rilevati solo se si traducono in diminuzioni di costi di produzione a parità di prodotto. La contabilità nazionale non rileva perciò le variazioni di utilità del consumatore. Se per acquistare un biglietto aereo in linea si impiega un cinquantesimo di tempo di una volta e si risparmiano le provvigioni dell'intermediario, il beneficio non compare nel Pil, anzi questo diminuisce per i minori ricavi delle agenzie di viaggio.
Le vicende degli anni Novanta e della bolla delle dot.com dimostra che bisogna rimanere con i piedi per terra, ancorati ai numeri e ai fatti empirici e mai credere alle vuote figure delle ideologie e agli inganni retorici. L'applicazione dell'innovazione tecnologica ha apportato benefici a chi sa avvalersene nella produzione, negli scambi, nella guerra, nella medicina, nell'intrattenimento e nell'istruzione, anche e soprattutto per acquisire, elaborare e trasmettere informazioni e comandi. Solo l'automazione realizzata con l'Ict ha permesso a molti settori di espandersi e ad alcuni (per esempio le banche e i servizi finanziari) di adattarsi all'incremento straordinario della domanda. Può essere che le nuove tecnologie abbiano anche aiutato a modificare in meglio il quadro macroeconomico. Peraltro, per i cambiamenti e i benefici in termini di sviluppo del reddito e dell'occupazione hanno avuto un ruolo preminente le riforme economiche e le liberalizzazioni avviate col 1980, là dove sono state attuate fino in fondo. Di esse dirò tra poco. Forse la stessa espressione “nuova economia” è fallace. In fondo, per molti versi non è cambiato niente rispetto al passato. Continuiamo a lavorare per guadagnarci da vivere, compriamo e vendiamo, dobbiamo consumare, risparmiare e investire come una volta e, soprattutto, anche le leggi e le regole di giudizio e di comportamento di una volta restano valide, nonostante il parere contrario predicato dai guru della “nuova economia”. Ciò vale tanto per i criteri di valutazione dei beni e delle attività e per gli effetti delle nostre decisioni sull'economia, quanto per le regole etiche.
Globalizzazione economica
Il secondo fenomeno, la globalizzazione economica, è l'adattamento
delle imprese alla tendenza a realizzare un unico mercato mondiale o, per
intanto, grandi aree di mercati aperti per merci, servizi, capitale e lavoro.
Più estesamente, è l'integrazione delle economie in un'economia
internazionale attraverso il commercio, gli investimenti esteri (delle multinazionali),
i flussi di capitale a breve termine, i flussi internazionali di lavoratori
e di popolazione e i flussi di tecnologie. Grandi aree di libero scambio
sono state istituite tra il 1992 e il 1995 e nello stesso periodo Cina,
India, Vietnam si sono aperti al sistema economico di mercato. Un quarto
della popolazione mondiale è raggruppata in quattro aree più
o meno integrate: spazio economico europeo (25 Stati dell'Unione europea,
più Norvegia, Islanda e Liechtenstein: oltre 400 milioni di abitanti),
Nafta, la North American Free Trade Agreement, che unisce Usa, Canada e
Messico (oltre 400 milioni di abitanti) e Afta, l'Asian Free Trade Association
(oltre 500 milioni di abitanti), i cui trattati sono stati stipulati nel
1992, Mercosur, il Mercado Común del Cono Sur (circa 250 milioni
di abitanti) istituito nel 1995. Un altro quarantacinque per cento è
rappresentato da India e Cina. L'Unione Europea ha, inoltre, stabilito rapporti
commerciali privilegiati con i paesi degli ex imperi coloniali inglese e
francese. Nel 1995, inoltre, è diventata operativa la Wto (World
Trade Organization, che traduciamo in italiano con Organizzazione mondiale
del commercio), nata con gli accordi stipulati al termine dell'Uruguay Round
e operativa dal 1° gennaio 1995.
La Wto amministra gli accordi generali e speciali che regolano le tre grandi aree del commercio: il vecchio riveduto General Agreement on Tariffs and Trade (Gatt) per i prodotti agricoli e industriali, il General Agreement on Trade in Services (Gats) per i servizi e quello riguardante i Trade-Related Aspects of Intellectual Property Rights (Trips) per la proprietà intellettuale. Aderiscono alla Wto finora 148 Stati (un'altra trentina sono in lista d'attesa come osservatori) per un totale di circa il 97 per cento del commercio internazionale.
Le trasformazioni dei mercati finanziari sono la manifestazione reale di una globalizzazione economica quasi completa. Il numero e la varietà degli agenti (gli intermediari che vengono chiamati “operatori istituzionali”: banche, sim, sgr, fondi comuni d'investimento, fondi pensione eccetera) sono aumentati e la loro libertà di operare sui mercati è quasi illimitata, con la piena convertibilità delle valute raggiunta, almeno per i paesi occidentali. La borsa è, oggi, un mercato unico virtuale che si estende fino all'ultimo pc domestico autorizzato a operare in via telematica, in qualunque parte del mondo si trovi. Si noti che ciò vale non solo per le singole borse, ma per l'insieme di tutte le borse mondiali passate a operare telematicamente. La catena dall'input del primo ordine fino all'esecuzione finale e alla regolazione virtuale in conto del cliente può estendersi ai quattro punti della Terra, tanto più quanto più coincidono gli orari di apertura delle borse. In proposito, è recente la notizia che il New York Stock Exchange ha deciso di anticipare di due ore l'apertura, costringendo a una levataccia gli operatori per lavorare in contemporanea con gli europei.
Secondo i fautori della globalizzazione, l'apertura dei mercati dovrebbe favorire una sana concorrenza. Di fatto persistono tra i paesi, anche all'interno delle aree di libero scambio, disparità di tassazione, di regolamentazione, di definizione e di tutela dei property rights, di esternalità sociali non incorporate nei costi di produzione, che distorcono i meccanismi di mercato, snaturano la concorrenza e apportano ad alcuni malefici proprio in luogo di benefici. Toccano specialmente il nostro paese, per esempio, il caso del tessile, delle contraffazioni provenienti dall'Estremo Oriente, del dumping ben mascherato dei produttori esteri di certi beni (esempi: auto, elettrodomestici; ma anche materiali dell'edilizia, come il granito: quello vietnamita viene consegnato in Sardegna a un prezzo complessivo che è un quarto di quello del granito di Buddusò). Un tempo era possibile difendersi con dazi e barriere non tariffarie (fisiche, tecniche, o fiscali) oggi rimessi a una decisione della Commissione europea (cioè ai tecnocrati delle direzioni generali della Commissione), oppure vietati dagli accordi Wto. Questi prevedono che le dispute in materia di commercio internazionale siano giudicate, in primo grado, da un panel di tre o cinque esperti e, in secondo grado, da un Appellate Body, composto da sette esperti.
Delocalizzazione
Le imprese che producono e operano per il mercato mondiale, le global companies,
si adattano con diverse strategie. Utilizzano, per esempio, strumenti legali
e finanziari che aggirano vincoli di leggi e di standard locali restrittivi
e penalizzanti (dal punto di vista delle imprese e delle altre organizzazioni
che ricorrono a queste pratiche), oppure ricorrono alla delocalizzazione
industriale, cioè al trasferimento degli stabilimenti in paesi dove
il costo della manodopera è minore e la regolamentazione più
permissiva. Nel settore manifatturiero, le imprese dei paesi avanzati tendono
a spostare le produzioni a minor contenuto tecnologico di beni materiali
e di servizi (per esempio i call center) nei paesi emergenti. Alcuni di
questi (Cina e India in particolare) stanno però adottando tecnologie
medio-alte e investono molto in ricerca e formazione, di modo che a medio
termine i paesi avanzati perderanno la leadership mondiale. È in
atto, sia pure agli inizi, anche una delocalizzazione dei centri di ricerca
industriale nei paesi dell'Est europeo e in alcuni paesi emergenti che hanno
un'elevata offerta di manodopera intellettuale a basso costo. In Cina e
India operano già centri di ricerca in tecnologie avanzate. A medio
termine, la delocalizzazione in questo campo porterà a una diminuzione
della domanda di ricerca nei paesi avanzati (in Italia in particolare) e
anche ciò contribuirà a indebolirne la leadership. Inoltre
i paesi asiatici stanno scommettendo da un decennio ingenti risorse in ricerca
e sviluppo e ciò contribuisce a mettere in pericolo la supremazia
soprattutto degli Stati Uniti e dei due paesi europei (Francia e Regno Unito)
che hanno fondato negli ultimi cinquant'anni sviluppo e potenza economica
sull'invenzione e l'utilizzazione di nuove tecnologie.
Globalizzazione e localismi, no global e altre posizioni
critiche
Non c'è solo tendenza alla globalizzazione economica, ma anche glocalizzazione,
necessità per le multinazionali, i gruppi che hanno stabilimenti
in paesi diversi, di adottare strategie e organizzazioni nuove per adattarsi
al cambiamento di attitudini, alle specifiche regole e alle condizioni di
ogni paese in cui operano.
Il terzo evento, imprevisto dai più, è la caduta del comunismo. La fine della guerra fredda con la demolizione del muro di Berlino (1989) e l'apertura al liberalismo economico e al regime di mercato dei paesi dell'Est, della Cina, dell'India, del Vietnam hanno avviato la globalizzazione politica, adozione di un regime costituzionale uniforme definibile in breve come mercato più democrazia. La globalizzazione politica non è stato appiattimento delle culture e sottomissione a un unico governo mondiale (nonostante la preminenza politico-militare degli Stati Uniti), ma si è accompagnata a una rinascita dei localismi, atteggiamenti di rivendicazione delle proprie peculiarità culturali, se non di chiusura, verso le altre, spesso sostenute da politiche attive dei governi. Proprio in quegli anni, mentre si rivela, la globalizzazione ha cominciato a essere un problema, nel bene e nel male, agli occhi di molti e a destare movimenti di opposizione, assai più che consensi.
La globalizzazione non piace a Verdi, ecologisti, sindacalisti, imprenditori, religiosi e, in genere, alle estreme di destra e di sinistra. Brilla per combattività l'attivismo di Jean-Marie Le Pen, in Francia, negli stessi Stati Uniti di Patrick Buchanan (il fondatore di The American Cause), dei gruppi di destra come i Patriots for the Defense of America e un po' dovunque dei populisti e di altri gruppi politico-sociali importanti. Il movimento anti-globalizzazione è soprattutto politico-militare con le ali organizzate molto potenti (in quanto molto supportate con denaro e protezione politica di diversi governi) dei no-global e di diverse Ngo (organizzazioni non governative) e del fondamentalismo religioso nei paesi dominati dall'Islam. L'obiettivo concreto dell'ostilità sono gli Stati Uniti.
Una posizione critica è stata assunta anche dalla Chiesa cattolica che, senza nominarla, ha coinvolto la globalizzazione nella condanna del neo-liberalismo, di cui dirò tra poco. Nell'esortazione apostolica Ecclesia in America del 22 gennaio 1999 di Giovanni Paolo II è scritto: «Not infrequently, this leads some public institutions to ignore the actual social climate. More and more, in many countries of America, a system known as neoliberalism prevails; based on a purely economic conception of man, this system considers profit and the law of the market as its only parameters, to the detriment of the dignity of and the respect due to individuals and peoples. At times this system has become the ideological justification for certain attitudes and behavior in the social and political spheres leading to the neglect of the weaker members of society»5.
Neoliberalismo, Monetarismo e Supply side economico
Il fondamento teorico della globalizzazione
risiede nella ripresa del liberalismo negli Stati Uniti e in Gran Bretagna
negli anni Ottanta, preparata da tre decenni di lavoro intellettuale in
cui si distinguono due filoni: von Hayek, von Mises, la scuola austriaca
da un lato e, dall'altro, la scuola di Chicago e pochi altri adepti economisti
anglosassoni. Alla scuola di Chicago si devono il monetarismo, la supply-side
economics e le ricerche, nate principalmente nell'ambito della nuova economia
istituzionale, di economia industriale sull'efficienza delle imprese e sulla
regolamentazione. La ripresa del liberalismo è stata sostenuta da
importanti e influenti istituti di ricerca privati, alcuni di antica istituzione,
per esempio, negli Usa, la Brookings Institution, il Cato Institute, la
Century Foundation, l'Institute for International Economics (Iie), il Progressive
Policy Institute (vicino al Partito democratico) e, in Inghilterra, l'Institute
of Economic Affairs (Iea). Per distinguerlo dal liberalismo dell'Ottocento,
il movimento è chiamato da alcuni neo-liberalismo. Politicamente
l'affermazione del nuovo liberalismo coincide con le riforme avviate dal
governo Thatcher in Gran Bretagna (1979-1990) e dall'Amministrazione Reagan
negli Usa (1981-1989). Qui ha dato origine a una complessa trasformazione
della politica, non solo economica, che si è imposta in tutto l'Occidente
e negli ex paesi comunisti e che per molti versi si sta estendendo al resto
del mondo. Tutto ciò ha rappresentato una svolta radicale dopo decenni
di predominio assoluto delle dottrine e delle politiche economiche keynesiane,
di quelle di pianificazione economica, marxista e non, del corporativismo
fascista e del neo-corporativismo degli anni Sessanta e Settanta. I keynesiani,
che non credevano nella legge di Say e nella spontanea stabilità
della produzione o della crescita reale, pensavano di aver scoperto il modo
sicuro di governare il ciclo economico e di promuovere la crescita dell'economia,
la ridistribuzione del reddito e il benessere con un governo accurato (fine
tuning) molto spinto dell'economia mediante la manovra della domanda globale
tramite le imposte (tipicamente quella progressiva sul reddito) e la spesa
pubblica, anche in disavanzo. L'eventuale deficit del bilancio statale (da
coprire con l'emissione di moneta) era accettato come uno strumento per
sostenere la piena occupazione, anche a costo di un po' di inflazione, connessa
però a bassi livelli di disoccupazione. Le politiche da lavish spender
di tanti governi fino agli anni Ottanta erano giustificate da questa dottrina.
Per i monetaristi, invece, l'economia di mercato è di per sé
stabile, anche nel tasso naturale di crescita, di modo che ogni fluttuazione
dell'offerta di moneta al di là di questo tasso (per esempio per
finanziare il deficit pubblico) è destinato a riflettersi sui prezzi
e a generare inflazione (o deflazione). Questa teoria ha avuto conferme
sul finire degli anni Sessanta quando le politiche keynesiane si sono rivelate
inette a curare il nuovo fenomeno della stagflation (comparsa congiunta
di stagnazione del reddito e di alti tassi di inflazione e di disoccupazione),
precipitata nella crisi di iper-inflazione e di recessione del decennio
successivo. Il monetarismo diventa politica operativa nel 1979 con la nomina,
da parte del presidente (democratico) Carter, di Paul Volcker al Federal
Reserve Board. A Volcker è succeduto nel 1987 Alan Greenspan, anch'egli
monetarista e tuttora in carica.
La supply-side economics riprende le critiche monetariste a Keynes e i concetti dell'economia classica sul ruolo dell'offerta (legge di Say), del libero mercato e della neutralità dello Stato e propone una politica economica per incentivare lo sviluppo del reddito in condizioni di stabilità. Questa politica deve operare mediante una riduzione delle imposte e della spesa pubblica per restituire risorse al settore privato, mediante la crescita dell'offerta di moneta proporzionata con quella reale dell'economia e mediante riforme istituzionali che ristabiliscano la concorrenza anche internazionale nei mercati della produzione, dei capitali e del lavoro e che eliminino l'effetto della congerie di condizionamenti (regolamentazione, potere dei sindacati dei lavoratori, imprese pubbliche) che disincentivano il lavoro e l'attività di produzione e di investimento e impediscono al mercato di realizzare un impiego efficiente delle risorse. Dal punto di vista della politica sociale, piuttosto che tentare la ridistribuzione del reddito esistente con regolamentazioni e interventi che intralciano l'attività produttiva, conviene mirare allo sviluppo del reddito considerando che ogni suo aumento tende ad aumentare il benessere di tutti distribuendosi in mille rivoli (trickle-down effect, letteralmente effetto di sgocciolamento).
Reaganomics e Thatcherism
Con il presidente Reagan la politica economica statunitense si è
ispirata ai precetti supply-side dando origine a ciò che è
stata chiamata la Reaganomics (o Reaganism), cui è corrisposto nel
Regno Unito il Thatcherism. Hanno contribuito a questa rivoluzione specialmente,
ma non solo, Robert Mundell, premio Nobel per l'economia e Arthur Laffer,
entrambi politicamente molto influenti per i molti incarichi di consulenza
pubblica. Mundell (nato nel 1932, Nobel 1999 per l'economia), che ha studiato
e insegnato anche a Chicago, è stato consulente di molte organizzazioni
internazionali (Onu, Fondo Monetario Internazionale, Banca mondiale, Commissione
europea), del Tesoro degli Stati Uniti, del Federal Reserve Board e di diversi
governi sudamericani ed europei. Laffer (nato nel 1940), consulente di professione
e per qualche tempo docente universitario, è stato membro dell'Economic
Policy Advisory Board del presidente Reagan. A lui si deve la curva di Laffer,
rappresentazione grafica dell'effetto determinato dall'aumento delle aliquote
delle imposte sul reddito. Quando queste sono alte, un ulteriore aumento
disincentiva il lavoro di produzione del reddito di modo che la riduzione
dell'imponibile fa perdere il maggior gettito atteso dall'aumento delle
aliquote. Inversamente una riduzione delle aliquote aumenta l'imponibile,
compensando la perdita nominale di gettito. A partire dagli anni Sessanta
un numero crescente di ricercatori ha preso a studiare gli effetti economici
della regolamentazione pubblica, in particolare quella sui servizi pubblici
(ovvero sul monopolio naturale), dei sussidi pubblici alle imprese e delle
imprese di Stato. Messe in opera da più di un secolo ed estese col
tempo, queste politiche erano giustificate con la necessità di rimediare
ai cosiddetti casi di fallimento del mercato, cioè quelle situazioni
in cui il mercato non sarebbe in grado di realizzare la migliore allocazione
delle risorse per difetti della concorrenza o per altre cause. In grande
maggioranza i nuovi studi concludevano adesso che le perdite di benessere
collettivo causato dai casi di fallimento del mercato sono modeste rispetto
al reddito nazionale e che, comunque, la regolamentazione e i sussidi alterano
il funzionamento del mercato e producono inefficienze (sprechi, distorsioni
nell'impiego, scoraggiamento della produzione e dell'innovazione, protezione
di imprese inefficienti e distruttrici di valore e altro) che superano i
benefici attesi. Si è dimostrato che in più di un caso la
regolamentazione è stata richiesta dalle imprese di certi settori
proprio per assicurarsi una rendita di monopolio o, almeno, la sopravvivenza,
e che in altri casi il progresso della tecnologia ha fatto cadere le ragioni
che facevano supporre il fallimento del mercato. Nello stesso periodo ricerche
approfondite hanno dimostrato l'inefficienza delle produzioni industriali
svolte dalle imprese pubbliche e direttamente all'interno dalle amministrazioni
pubbliche. Inoltre, il progresso tecnologico dell'Ict ha modificato i mercati
dei servizi pubblici dal lato dell'offerta introducendo alternative che
li aprono a una certa concorrenza e che fanno cadere i presupposti del monopolio
naturale. Su questi fondamenti l'Amministrazione Reagan ha avviato un processo
di deregolamentazione (deregulation), mentre in Europa, specie nel Regno
Unito e in Italia, che avevano costituito molte imprese pubbliche, si è
dato corso a processi di privatizzazioni introducendo una regolamentazione
sulle imprese di servizi pubblici privatizzate. Un po' ovunque è
stata praticata una privatizzazione anche nelle forme di ricorso all'outsourcing
(letteralmente: rifornimento all'esterno) e di trasferimento a carico dei
cittadini utenti di parte dell'onere del welfare.
La dottrina e la politica della sinistra: la "Terza
via"
Si qualifica solitamente il nuovo indirizzo come una politica di
destra, ma a torto. È vero che essa è nata negli Stati Uniti
sotto l'amministrazione repubblicana (dal 1981 al 1993) e nel Regno Unito
sotto il governo conservatore (durato dal 1979 al 1997). Ma l'Amministrazione
Clinton (Partito democratico), al potere dal 1993 al 2001 e il governo neo-laburista
di Blair non hanno invertito la rotta. In Europa continentale, le riforme
simili a quelle inglesi e statunitensi sono state avviate dalla sinistra:
in Italia, per esempio, dai governi Prodi e D'Alema, in Germania dal governo
Schröder e, in Francia, in parte anche dal governo social-comunista
di Jospin. La politica dei neo-laburisti inglesi e dei Democratici americani
ha stabilizzato, completandolo, il corpo delle riforme dei governi di destra
che li hanno preceduti, aggiungendo anche novità e i governi socialisti
europei le hanno applicate ex novo fin dove hanno potuto. Clinton e Blair
hanno riassunto questa linea politica nel programma della “Terza via” (Third
way).
Di “Terza via” Clinton aveva iniziato a parlare nella campagna elettorale del 1992, definendola di centro-sinistra. Blair ne ha utilizzato i concetti per la riforma del Partito laburista del 1994, conclusa con il manifesto New Labour, New Life For Britain del 1996. Blair stesso ha, poi, pubblicato un saggio sull'argomento (The Third Way, Fabian Society, 1998). Gli intellettuali e i consiglieri che hanno elaborato la dottrina della Third way fanno parte di alcune importanti think tanks: negli Stati Uniti il Democratic Leadership Council (Dlc) e il Progressive Policy Institute (Ppi), nel Regno Unito l'antica Fabian Society (ne sono membri circa 200 deputati laburisti), l'Institute for Public Policy Research e Demos. Un contributo individuale importante è stato dato dal sociologo Anthony Giddens, direttore della London School of Economics e consigliere di Blair con due libri: The Third Way: The Renewal of Social Democracy, 1998 (tr. it. 2001); The Third Way and Its Critics, 20006. Giddens è, per l'Europa, il principale teorico del nuovo progetto politico. Nell'aprile del 1999 Clinton ha invitato quattro primi ministri di sinistra europei (Blair, D'Alema, Schröder e l'olandese Kok) a partecipare a Washington a una tavola rotonda che aveva per argomento “The Third Way: Progressive Governance for the 21st Century”. Due mesi dopo, Blair e Schröder rilasciavano una dichiarazione congiunta bilingue sull'argomento (Europe: The Third Way/Die Neue Mitte, London, 8 June 1999). Nel luglio D'Alema e Blair incaricavano tre professori, l'italiano Boeri della Bocconi, Layard e Nickell della London School of Economics, di stendere uno studio sulla disoccupazione nei rispettivi paesi e sulle misure utili a contrastarla.
Lo studio (Welfare-to-Work and the Fight Against Long-term Unemployment, Report to Prime Ministers Blair and D'Alema) è stato consegnato nel giugno 2000 e i destinatari lo hanno presentato al Consiglio europeo di Santa Maria da Feira del 19-20 giugno 2000. Quest'ultima iniziativa è stata sommersa, in Italia, dalle critiche dell'opposizione interna ostile a D'Alema e non ha avuto seguito. Rappresentava un atto coraggioso e innovativo per l'ambiente politico italiano, il primo e l'unico compiuto nel nostro paese in più di un secolo da un leader di sinistra per rompere col passato. Il punto di partenza della dottrina della “Terza via” è se e come adattare i programmi politici a un mondo profondamente cambiato dalla tecnologia e dalla globalizzazione e rivolto totalmente verso un'economia di mercato. Non ci sono precedenti in proposito, se non l'isolata e contestata dichiarazione di Bad Godesberg con cui nel 1959 il Partito socialdemocratico tedesco, l'Spd, si impegnava molto genericamente a rispettare la disciplina del mercato. Per il resto, la sinistra europea non ha mai abbandonato i programmi socialisti, neanche dopo la caduta del muro di Berlino e quella statunitense aveva preso indirizzi ideologici per così dire massimalisti di fronte alla politica radicale di Reagan. Il proposito dei teorici della “Terza via” è di abbandonare le perdenti posizioni ideologiche massimaliste e di accettare, adattandolo, il cuore delle nuove dottrine che avevano fatto la fortuna della destra. Giddens chiarisce questo punto con un'ammissione esplicita: «No one, any longer has any alternatives to capitalism – the arguments that remain concern how far, and in what ways, capitalism should be governed and regulated» (pp. 43-44 dell'edizione inglese; la traduzione italiana sfuma la durezza della frase originale). I teorici della “Terza via” adottano i principali concetti del monetarismo e della supply-side economics (stabilità naturale del mercato; potere destabilizzante delle politiche macroeconomiche attive del governo; utilizzo della politica monetaria per contenere l'inflazione; politica monetaria sottratta ai politici e affidata a un organo indipendente, la banca centrale; validità della legge di Say) che la New Progressive Declaration7 statunitense inquadra sotto tre principi, tipici della cultura politica statunitense: pari opportunità, mutua responsabilità e autogoverno8 (equality of opportunity, mutual responsibility, and self-government). Nei documenti europei, secondo anche le lingue, si trovano altre denominazioni (fratellanza, solidarietà eccetera), ma la sostanza non cambia. Il programma della “Terza via” è stato definito la combinazione dell'economia neoliberale con una politica sociale di tipo socialdemocratico. I punti di maggior rilievo e che più differenziano la nuova politica socialdemocratica rispetto al passato sono: accettare la globalizzazione (nessun partito di centro-destra ha invece mai espresso pubblicamente questo principio), rivolgere l'attenzione ai cambiamenti demografici, in particolare all'invecchiamento della popolazione e riconoscere, di conseguenza, la necessità di una riforma del sistema delle pensioni, di indurre un aumento della popolazione attiva riducendo i sussidi e aumentando la mobilità del lavoro, di spingere gli individui a supportare se stessi contando più sul risparmio personale che sull'assistenza pubblica. In ciò viene ripresa una nuova ortodossia della Banca mondiale enunciata in un report del 1994 (Averting the Old Age Crisis) e sviluppata dall'Oecd (A Caring World. The New Social Policy Agenda, 1999). Le misure di privatizzazione della previdenza, proposte negli Stati Uniti dall'Amministrazione repubblicana guidata da George W. Bush, continuano di fatto sulla stessa linea.
Globalizzazione delle
politiche economiche e global governance
L'inversione politica, riassunta da alcuni nel motto “meno Stato,
più mercato”, non è però solo economica e non è
stata uguale dappertutto. Iniziata intorno al 1980 prima negli Usa e nel
Regno Unito e poi estesa a tutto l'Occidente e agli ex paesi comunisti,
ha rappresentato, comunque, un netto cambiamento rispetto alle tendenze
dell'intervento dello Stato che, per più di cento anni, avevano portato,
in Occidente, a forme estese di economia amministrata e, nei paesi dell'Est,
all'economia di tipo sovietico. L'indirizzo è stato sanzionato dal
Washington consensus (dove consensus ha il significato di agreement, accordo)
del 1989, una serie di riforme che la Banca mondiale riteneva necessarie
per i paesi dell'America latina e che questi si impegnavano a realizzare.
L'elenco è stato riassunto dalla Banca mondiale in dieci punti: contenimento
del deficit pubblico, reindirizzo della spesa pubblica verso l'istruzione,
la sanità e gli investimenti infrastrutturali, riforma tributaria
con estensione della base imponibile e riduzione delle aliquote marginali,
determinazione dei tassi di interesse e del tasso di cambio rimessa al mercato,
liberalizzazione degli scambi, apertura agli investimenti esteri, privatizzazione
delle imprese pubbliche, deregulation, garanzie istituzionali per i property
rights. Le stesse condizioni sono state più o meno imposte dall'Unione
Europea nell'assistenza ai paesi dell'Est ex comunisti e delle repubbliche
sorte dalla dissoluzione dell'Urss. In Europa, in aggiunta alle privatizzazioni
e al passaggio dal regime di servizio pubblico a quello di regolamentazione,
i paesi che hanno aderito all'Unione economica e monetaria hanno adottato
col Trattato di Maastricht del 1992 una rigida politica monetarista (non
supply-side) e hanno cessato, almeno l'Italia, la politica di sussidio delle
industrie nazionali. C'è una differenza importante tra la globalizzazione
attuale e quanto si è verificato nell'Ottocento. Allora l'apertura
delle frontiere e l'omogeneizzazione delle politiche e delle culture era
un prodotto di imitazione e, per i paesi dell'Occidente, di trattati internazionali
liberamente stipulati senza perdita di sovranità e liberamente denunciabili,
senz'altra sanzione oltre a perdere i benefici, se c'erano, dei meccanismi
e delle procedure stipulate. Oggi la globalizzazione è in buona parte
opera di organizzazioni sopranazionali dalle quali è quasi impossibile
uscire. In più, queste organizzazioni tendono a omogeneizzare il
diritto9 e a ridurre la sovranità degli Stati e palesano un'inclinazione
avanzata verso la global governance, ovvero il world government, concetto
di governo mondiale predicato negli ambienti delle Nazioni Unite, oppure
la governance, perseguita, nell'Unione Europea, di fatto sotto la propria
guida dall'asse Francia-Germania. Si pensi alle istituzioni dell'Unione
Europea e, in specie, sia ai poteri della Commissione di prelevare e di
ridistribuire risorse, di limitare attività economiche (con ricadute
negative sullo sviluppo locale: un esempio per l'Italia cisalpina sono le
quote latte), di regolamentare minuziosamente prodotti e servizi,10 di giudicare
e di sanzionare, sia ai poteri della Banca centrale europea di decidere
la politica monetaria comune. Specie per i paesi aderenti all'Uem (l'Emu,
Economic and Monetary Union), l'appartenenza all'Unione Europea ha comportato
la perdita della sovranità monetaria, la soggezione a criteri restrittivi
di politica fiscale soggetti a sanzioni sopranazionali,11 limiti alla manovra
delle politiche agricole e industriali che, di fatto, li hanno quasi spogliati
della sovranità anche in questi campi. Altrettanto invasivi sulla
sovranità sono gli effetti delle organizzazioni che operano a livello
globale: l'Onu, la Banca mondiale, il Fondo monetario internazionale, l'Oecd,
di cui si è detto, la stessa Nato e il cartello dell'Opec (Organization
of the Petroleum Exporting Countries), la Wto e l'Enforcement Branch per
l'applicazione del Protocollo di Kyoto. Alla Wto è stato attribuito
il potere esclusivo di decidere in via burocratica definitiva e insindacabile
sulle controversie tra Stati rendendo difficoltoso e, in certi casi, praticamente
impossibile difendersi contro pratiche commerciali scorrette con l'arma
naturale della ritorsione e, inoltre, hanno abbattuto i dazi difensivi ed
espongono i paesi avanzati (per esempio nel settore delle fibre tessili)
alla concorrenza distruttiva di paesi emergenti dove i produttori non hanno
vincoli e oneri in materia di condizioni del lavoro, welfare, rispetto dell'ambiente
e si avvantaggiano di assenza o bassa tassazione. L'Enforcement Branch sarà
lo strumento operativo dei meccanismi per costringere i paesi al rispetto
delle prescrizioni del Protocollo di Kyoto sulle emissione di gas nell'atmosfera.
Il costo ai paesi che supereranno i target potrà irrogare, a partire
dal 2013, sanzioni che in termini di benessere danneggeranno, quando entreranno
in vigore, più i paesi virtuosi che quelli che si vogliono sanzionare.
Una terza fonte di omogeneizzazione sono le Ngo, cioè le organizzazioni
internazionali non governative, di regola private, principalmente le organizzazioni
tecniche, per esempio l'Iso (International Organization for Standardization,
che ha per missione l'internazionalizzazione e l'unificazione degli standard
industriali) e l'Iasb (International Accounting Standards Board), che elabora
i principi contabili internazionali per le imprese private (Ias, International
accounting standards). I principi e le regole predisposte dalle organizzazioni
tecniche sono spesso recepite dalla normative della Comunità europea
e degli Stati nazionali e diventano in tal modo cogenti o, almeno, indicative
per il management. Infine, le organizzazioni di categoria (per esempio l'European
Banking Association-Eba) e quelle di tendenza (Greenpace, Wwf eccetera),
quando partecipano a conferenze o a comitati internazionali e anche solo
col loro potere di pressione e persuasione morale e di mobilitare le masse,
contribuiscono a creare modelli di condotta uniformi cui alle imprese e
alle amministrazioni pubbliche torna difficile sottrarsi.
Opportunità e rischi: un bilancio della globalizzazione
Contrariamente a quanto predicano i suoi entusiasti missionari, la
globalizzazione porta del bene e del male e non è una forza naturale
incontenibile, ma una costruzione dell'uomo in parte a tavolino con i trattati
e, per il resto, con le strategie delle imprese, con i comportamenti di
tutti e con le omissioni dei governanti. Può essere fonte di opportunità
favorevoli come di nuovi rischi. La globalizzazione è una costruzione
caotica, nonostante gli sforzi dei suoi teorici, un sistema complesso in
evoluzione che è la risultante di pressioni, favorevoli e contrarie,
che arrivano da molte parti che hanno poche cose in comune e pochi interessi
concordi: gli Stati Uniti e la Cina, il Wwf e l'Iso, la Chiesa e l'European
Bah'i Business Forum per dare qualche indicazione sugli opposti. La globalizzazione
attuale, a differenza di fenomeni simili del passato, tende verso un'attenuazione
dell'autorità e dei poteri degli Stati, sempre più sottomessi
alle decisioni di organizzazioni sopranazionali. Kenichi Ohmae, un attendo
studioso di management, afferma che viviamo ormai in un mondo senza confini
in cui gli Stati diventeranno una finzione e i politici nazionali stanno
perdendo potere effettivo (The End of the Nation State. The Rise of Regional
Economies, 1995; traduzione italiana del 1996). Infatti il mondo sta marciando
verso un'attenuazione dell'autorità e del potere degli Stati, sempre
più sottomessi a suggerimenti e decisioni superiori che non si possono
rifiutare. Non a caso c'è chi predica la necessità di costruire
un governo mondiale o, meglio, una struttura politica di global governance.
Una global governance già esiste, seppure farraginosa e non gestita
nell'interesse dei cittadini e dei consumatori ed è costituita per
esempio da Nazioni Unite e dall'Unione Europea, per citare le più
note e più importanti. Queste però sono finzioni giuridiche
(l'Ue non ha nemmeno personalità giuridica distinta dalle tre Comunità)
che delegano i compiti politici, economici e giudiziari che contano a strutture
di tecnocrati che esse stesse costituiscono: per esempio, tra i tanti, alla
Banca mondiale, al Fmi, al Wto, alle Direzioni della Commissione europea
e alla Bce. Consegue che le decisioni che poi ricadono sugli Stati non sono
elaborate e concordate dalle cancellerie di questi, ma sono prese e gestite
autonomamente da tecnocrazie non democratiche, di tipo feudale (ognuna è
investita dal suo superiore di una fetta di potere e di rendite monetarie
che gestisce in proprio), non di rado corrotte e arrendevoli a lobbies generose,
poste al di fuori del controllo dei destinatari, se si eccettuano le grandi
potenze. In proposito, l'esperienza del tutto sfavorevole, se non in perdita,
del nostro paese negli ultimi quindici anni meriterà un capitolo
a parte.
Note
1. La liberalizzazione degli scambi internazionali è stata realizzata
con otto negoziazioni commerciali multilaterali, dalla Conferenza di Ginevra
del 1947, che aveva portato alla sottoscrizione dell'accordo generale sui
dazi doganali e sul commercio (Gatt, General Agreement on Tariffs and Trade),
all'Uruguay Round (1986-1994) che ha sostituito il Gatt con un'organizzazione
permanente, la Wto (World Trade Organization).
2. L'Ict e Internet sono nate negli Stati Uniti per impulso e sotto la direzione
del governo, militare e civile, che ne ha sostenuto lo sviluppo specialmente
attraverso l'Advanced Research Projects Agency (Arpa), agenzia del Department
of Defence, ordinando e finanziando la ricerca e le applicazioni presso
laboratori e centri formalmente privati e università (per esempio
la Rand Corporation, organizzazione privata non-profit istituita e sostenuta
per iniziativa dell'Air Force). Così è avvenuto per i computer
e le comunicazioni satellitari e specialmente per Internet, nata nel 1969
al termine di un decennio di studi teorici finanziati dalla Difesa come
strumento di comunicazione militare e tra i ricercatori impegnati su supercomputer
in progetti strategici. Nei primi anni Ottanta, scissa la parte di interesse
militare, la rete di ricerca veniva affidata alla National Science Foundation
(Nsf), un'agenzia federale indipendente, che provvedeva costruendo la grande
dorsale del paese e lasciando ad altri enti, pubblici e privati, la gestione
di reti regionali e locali. In queste cominciano a inserirsi anche privati
ed enti non interessati ai supercomputer e nel 1992 la Nsf consente l'accesso
generalizzato al traffico commerciale. In breve il numero degli utenti prende
a crescere rapidamente, favorito dall'apertura del web. Raggiunta la massa
critica, le strutture pubbliche di Internet sono state privatizzate tra
il 1995 e il 1998.
3. Dot.com è denominazione in gergo delle società pure-click
e significa “punto com”, dal suffisso “.com” che completa solitamente l'indirizzo
dei siti commerciali.
4. Anche in Italia si sono avuti diversi casi di “ipo “(offerte pubbliche
iniziali) sopravalutate. Tiscali, per esempio, è stata collocata
nell'ottobre 1999, all'inizio della bolla speculativa, a un prezzo 300 volte
superiore al book value (valore del patrimonio netto riportato nel prospetto
informativo).
5. La traduzione italiana ufficiale è la seguente: «Non di
rado, questo porta alcune istanze pubbliche a trascurare la situazione sociale.
Sempre più, in molti paesi americani, domina un sistema noto come
“neoliberismo”; sistema che, facendo riferimento ad una concezione economicista
dell'uomo, considera il profitto e le leggi del mercato come parametri assoluti
a scapito della dignità e del rispetto della persona e del popolo.
Tale sistema si è tramutato, talvolta, in giustificazione ideologica
di alcuni atteggiamenti e modi di agire in campo sociale e politico, che
causano l'emarginazione dei più deboli». È curioso notare
che la traduzione ufficiale in italiano rende neoliberalism con “neoliberismo”,
che non è la stessa cosa.
6. Giddens ha, inoltre, curato l'edizione di The Progressive Manifesto.
New Ideas for the Centre-left, una raccolta di saggi apparsa nel 2003.
7. Il documento (The New Progressive Declaration: A Political Philosophy
for the Information Age), pubblicato il 10 luglio 1996, è stato redatto
dal Democratic Leadership Council e dal Progressive Policy Institute e si
trova insieme a molta altra documentazione aggiornata sul sito del Ndol
(New Democrats Online).
8. Il concetto di autogoverno è espresso in termini rovesciati dal
principio di sussidiarietà adottato dall'Ue per definire il corretto
equilibrio di poteri nell'ambito della Comunità. Secondo il principio
di sussidiarietà le funzioni di governo di livello più elevato
dovrebbero essere le più limitate possibili e sussidiarie di quelle
di livello più basso.
9. Questa tendenza è molto avanzata nei paesi dell'Ue. I giuristi
sembrano non aver ancora riflettuto che nell'Unione europea si è
formata una vasta legislazione sopranazionale che ha accelerato l'omologazione.
Ciò porta in second'ordine i diritti degli Stati aderenti, che non
possono derogare, se per farlo non hanno il peso politico nella Comunità,
da certi principi e da certe norme cogenti di quella principale. Le norme
nazionali stanno diventando una specie di legislazione municipale, col difetto
di tutti i diritti municipali di portare varianti di traduzione, interpretazione
e applicazione che aumentano l'incertezza e la confusione.
10. La lista di beni e servizi regolamentata dalla Comunità è
vastissima e talvolta riguarda casi che sembrano futili, come la specificazione
dell'altezza dei cani bassotti, dei requisiti minimi di qualità dei
preservativi, delle dimensioni delle banane. Dietro a molte di queste statuizioni
ci sono sicuramente gli interessi di lobbies potenti, non quelli di tutti
e, in specie, dell'indifeso consumatore. Valgano gli esempi della pasta
alimentare e del pane, che siamo costretti a importare in Italia anche se
prodotti con farina di grano tenero e con l'aggiunta di additivi e coloranti
proibiti dalla legge italiana; del miele, per il quale non si può
più distinguere quello vergine nazionale da quello di importazione
contraffatto con l'aggiunta di sciroppi zuccherini ricavati dal mais; del
cioccolato, nel quale è ora ammesso fino al 5 per cento di “oli vegetali”,
cioè di oli tropicali di cocco, di palma, di palmisti, oppure di
burro di karitè e di illipe e altri grassi ricavati sempre da piante
tropicali, i quali tutti hanno un alto contenuto di acidi grassi saturi
altamente dannosi per cuore e arterie in quanto grandi induttori di colesterolo
cattivo.
11. I criteri fissati dall'art. 104 del Trattato istitutivo dell'Ue e dal
Protocollo sulla procedura per i disavanzi eccessivi obbligano al contenimento
del deficit pubblico entro il 3 per cento del Pil e del debito pubblico
entro il 60 per cento del Pil. I criteri e le sanzioni non sono stati applicati
ai due paesi (Francia e Germania) che dominano l'Unione e che per primi
li hanno trasgrediti.
Gian Carlo Loraschi, professore di Scienza delle finanze alla Facoltà di Giurisprudenza dell'Università di Sassari, dove insegna inoltre Economia aziendale e Politica economica. È anche avvocato e, in precedenti occupazioni, è stato dirigente e consigliere di amministrazione di banche.
(c)
Ideazione.com (2006)
Home
Page
Rivista | In
edicola | Arretrati
| Editoriali
| Feuilleton
| La biblioteca
di Babele | Ideazione
Daily
Emporion | Ultimo
numero | Arretrati
Fondazione | Home
Page | Osservatorio
sul Mezzogiorno | Osservatorio
sull'Energia | Convegni
| Libri
Network | Italiano
| Internazionale
Redazione | Chi
siamo | Contatti
| Abbonamenti|
L'archivio
di Ideazione.com 2001-2006