venerdì 31 luglio 2009

apologia dell'attacco personale

Trovo l'argomento ad hominem largamente sottovalutato. È vero che la verità di un'affermazione è logicamente indipendente dalla persona che afferma (tranne ovviamente che in casi speciali, ad esempio quando l'affermazione riguarda proprio colui che parla, come in "io sono bello"). Ma è anche vero che esiste un legame causale e statistico evidente fra l'intelligenza di una persona e la validità dei suoi argomenti.

Le persone stupide tendono a fare discorsi stupidi, perché sono stupide. Quindi un modo molto semplice per liquidare ad esempio certe teorie del complotto è far notare come solitamente chi le propone è un perfetto idiota, e non perderci troppo tempo.

A meno che non si creda davvero che sia solo un caso fortuito, se fra i principali sostenitori delle teorie del complotto vi siano fisici convinti che Gesù Cristo ha visitato l'America, scrittori che sostengono che la regina d'Inghilterra è un rettile alieno travestito da simpatica vecchietta, teorici della Terra cava, negazionisti anti-semiti, inventori della macchina del moto perpetuo, coltivatori di orgoni, quelli che si curano il cancro col bicarbonato, e chi più ne ha più ne metta.

Ma c'è di più. L'argomento ad hominem, tranne in casi estremi, è quasi sempre una mossa retorica perfettamente valida nell'ambito di una discussione, in quanto le discussioni raramente servono a stabilire una verità eterna e definitiva, ma servono più facilmente a raggiungere conclusioni provvisorie relative al contesto e agli interlocutori.

In origine, per "argomento ad hominem" non si intendeva, in effetti, un attacco personale o ingiurioso rivolto al proprio avversario e del tutto slegato dal soggetto del discorso (es. "secondo me 2+2 fa 4", "no, perché tu puzzi"), ma semplicemente un argomento che utilizza come premesse proprio le concessioni fatte dall'avversario, in modo da forzarlo a rivedere le premesse già concesse o ad acconsentire alle conclusioni, senza con ciò avere pretese di verità assoluta (cfr. John Locke, Essay on Human Understanding, IV.XVII.21, "[…] to press a man with consequences drawn from his own principles or concessions. This is already known under the name of argumentum ad hominem").

Ad esempio, nel caso in cui si volesse argomentare contro la pratica dell'aborto, si potrebbe chiedere all'interlocutore se è d'accordo nel sottoscrivere l'affermazione "l'omicidio è sempre immorale", per poi sostenere che essendo l'aborto una forma di omicidio anche esso è immorale. In tal modo l'avversario dovrà o dimostrare che l'aborto non è un caso di omicidio, o rivedere la premessa che l'omicidio è sbagliato, o arrendersi. Anche in questo caso però non si sarebbe dimostrata, in assoluto, l'immoralità dell'aborto, perché non è detto che tutti gli interlocutori sottoscrivano le stesse premesse.

In un'altra discussione, con un'altra persona, l'antiabortista forse non potrebbe ricorrere allo stesso argomento ("ad hominem") in difesa del proprio punto di vista, ma dovrebbe adattare la propria strategia all'interlocutore che si trova di fronte, e agli argomenti di costui. Quindi, a meno che uno non disponga davvero della verità assoluta a portata di mano e possa tirarla fuori dal cilindro ponendo fine alla diatriba, tutte le discussioni normali sono fatte di argomenti ad hominem, in questo senso specifico (originario).

Si noti che anche la famosa dialettica socratica, il modello della discussione razionale per eccellenza, non consiste di altro che del tentativo di portare allo scoperto le incongruenze nella posizione dell'avversario: se io sostengo A, e mi fanno notare che A implica B, che io ritengo falsa, allora posso essere costretto ad abbandonare A. Ma A nonostante tutto potrebbe essere vera (insieme a B). Il fatto è che siccome nessuno dispone di un accesso privilegiato alla Verità, tutto quel che si può fare è almeno cercare di essere coerenti.

Una variante dell'argomento ad hominem più vicino alla sua accezione odierna, dispregiativa, è l'argomento "tu quoque", nel quale si fa notare che il pulpito dal quale proviene la predica non è esattamente immacolato. Ma anche in questo caso la mossa potrebbe essere perfettamente legittima e razionale. Se qualcuno protesta contro l'abitudine di indossare pellicce, non è sbagliato fargli notare che anche lui mangia carne animale. A meno che l'interlocutore non sia vegetariano (e in questo caso l'affondo va a vuoto), ciò lo costringe a interrogarsi o a specificare cosa c'è che non va nell'uso delle pellicce, che lo differenzia in senso morale dall'uso di mangiare carne. Ancora una volta, con ciò non si dimostra che le pellicce vanno bene, ma solo che, forse, chi si oppone ad esse lo fa per motivi nei quali non crede in fondo nemmeno lui (altrimenti non mangerebbe carne), e si sposta sull'avversario l'onere della prova.

Analizzando a fondo la questione non sembra esservi una vera soluzione di continuità fra i due modi di argomentare, del tutto legittimi, che abbiamo visto, e l'argomentum ad hominem quale lo si intende oggi normalmente, indicandolo come una pessima abitudine retorica. Non sempre, ad esempio, è inappropriato mettere in questione la caratura morale di chi fa un certo discorso: nessuno prenderebbe sul serio le vibranti proteste contro l'eccessivo libertinaggio e la decadenza dei costumi della società odierna che provenissero da un assassino seriale. La strategia è affine al tu quoque, ma non identica, in quanto non si intende accusare l'assassino seriale dello stesso peccato che egli denuncia, e ancora una volta con questo non si dimostra certo che le sue idee siano sbagliate in sé, ma solo che egli non è la persona più adatta per difenderle. Stavolta l'osservazione non può neanche essere presa come un argomento a favore di un punto di vista qualsiasi, visto che l'attacco può provenire persino da una persona che condanna, egualmente, il libertinaggio e la dissolutezza dei costumi.

Simile a questo, e ancora più vicino all'argomento ad hominem inteso come attacco personale, vi è l'accusa di difendere un certo punto di vista non in quanto giudici imparziali, ma in quanto parti in causa, o aventi un certo interesse nel propagandare proprio quel punto di vista. È la strategia ad esempio di chi accusa gli scienziati scettici sul riscaldamento globale di essere al soldo delle multinazionali. Si tratta di un artificio retorico di cui in effetti spesso si abusa (il fatto che una ricerca venga finanziata da una compagnia petrolifera non ne inficia, di per sé, le conclusioni), eppure non si può dire che sia un argomento del tutto indegno di interesse. Richiamando l'attenzione sul coinvolgimento personale di chi difende un certo punto di vista, si potrebbe semplicemente voler invitare gli altri a valutare e controllare con maggiore scrupolo determinate affermazioni, in quanto non è affatto improbabile che esse siano viziate (anche presupponendo la buona fede) da scarsa oggettività.

All'estremo inferiore nella scala delle argomentazioni legittime troviamo infine l'insulto vero e proprio: "hai torto perché sei un cretino", "sei uno sporco debunker amico degli americani", "sei un ebreo comunista e mangi i bambini". In realtà, come fa notare David Hitchcock (in un saggio pubblicato in rete dal quale ho largamente attinto per queste mie riflessioni), la liceità morale di una simile strategia è certamente discutibile, ma è difficile considerarla una vera e propria fallacia, o un errore logico nel modo di argomentare, per il semplice fatto che non vuole affatto essere un argomento. Potremmo al più considerarlo un diversivo, un modo di evitare il confronto, o di infangare la reputazione dell'avversario a prescindere da quel che sostiene, ma certamente non un sofisma, un ragionamento sbagliato.

Ma per quanto antipatico sia talvolta questo modo di discutere, perché dovremmo considerarlo sempre illecito? Se ad esempio il mio interlocutore è davvero un cretino senza speranza, perché dovrei perdere tempo a ragionare con lui? Al di là della misera soddisfazione insita nell'insultare il prossimo, inoltre, facendo notare che si tratta di un cretino posso svolgere un servizio utile ad altre persone che potrebbero trovarsi coinvolte nella disputa, e che potrebbero essersi non ancora accorte di quanto il loro avversario sia cretino.

Mettersi a discutere con una persona stupida, o anche moralmente indegna e in evidente malafede, non è mai un modo molto proficuo di passare il tempo. Quindi l'argomento ad hominem può servire non tanto a ottenere ragione in una disputa, ma solo ad evitare di perdere il proprio tempo o farlo perdere al prossimo. Si tratta della semplice consapevolezza che niente di buono può venire da certe fonti di informazione e da certe persone, al di là delle verità occasionali che non si può comunque escludere che tali persone siano in grado di affermare (in fondo sono persone).

Riprendendo la distinzione iniziale, fra il legame puramente logico esistente fra certe affermazioni, e il legame statistico-causale fra la stupidità di una persona e la stupidità delle sue affermazioni, mi sembra che chi denuncia il ricorso all'argomento ad hominem come una fallacia nel modo di ragionare, non ha ben presente appunto tale differenza. Se una calcolatrice è difettosa in partenza, non può essere usata per controllare la validità di un calcolo aritmetico, anche se non sappiamo se quel calcolo è stato effettivamente eseguito in maniera scorretta. Liquidando il risultato, quindi, non stiamo commettendo l'errore logico di valutare un calcolo aritmetico in base a fattori che con l'aritmetica non hanno nulla a che fare. Semplicemente, non stiamo parlando di aritmetica, ma delle prestazioni della calcolatrice, e di quanto ci si possa fidare.

E comunque, penso sia persino dimostrabile, un sano pregiudizio ha salvato molte più vite di quante ne abbia fatte perdere.


* Per coerenza con quanto sopra esposto, tolgo la moderazione ai commenti. Ognuno si senta libero di insultarmi quanto gli pare. Solo, siete pregati di non insistere qualora vi cancellassi qualcosa. Altrimenti oltre che cretini siete pure dei gran rompiscatole.

giovedì 23 luglio 2009

Calypso filosofico



Questo post forse interesserà a pochi, ma visto che di recente è stato nominato Willard Van Orman Quine, uno dei miei numi ispiratori, non posso esimermi dallo scrivere qualche riga su di lui.

Quine (1908-2000), benché probabilmente non diverrà mai famoso presso il grande pubblico come un Wittgenstein o un Popper, è uno dei giganti del pensiero filosofico del secolo trascorso. Nel 1953 pubblicò una raccolta di saggi dal titolo From a Logical Point of View ("Da un punto di vista logico"). Nel genere della filosofia analitica questi saggi sono tutti fulgidi esempi di chiarezza espositiva, di rigore logico, e di brevità e sintesi nel trattare in 20 pagine argomenti che ad un Heidegger qualsiasi ne avrebbero richieste 600.

Due saggi però spiccano in maniera particolare, essendo veri e propri classici, tradotti e ristampati un gran numero di volte. Uno è On What There Is ("Su ciò che vi è"), articolo di argomento ontologico dove Quine si permette di fare la barba a Platone usando il rasoio di Occam. Qui Quine introduce la celebre formula "essere è essere il valore di una variabile vincolata da quantificatori". In realtà, più che un criterio di esistenza, si tratta di un criterio di impegno ontologico. La formula di Quine serve a capire quali sono gli enti postulati da una teoria, nel presupposto però che esistono quegli enti che sono presupposti dalle teorie vere.

Non esistono i cavalli alati, né il più grande numero primo, perché non c'è ad esempio in aritmetica una formula come "esiste un x tale che x è un numero primo e non esiste un y maggiore di x tale che y è un numero primo" che abbia un valore di verità uguale a "vero" (Quine si appoggia a un altro brillante risultato del pensiero filosofico della prima metà del secolo XX, la teoria delle descrizioni di Bertrand Russell). L'idealismo, ovvero la teoria secondo la quale è sufficiente pensare o nominare una cosa affinché essa rientri nel novero degli enti, è così sistemato.

L'altro saggio importante è Two Dogmas of Empiricism ("Due dogmi dell'empirismo"), dove Quine prende di mira niente meno che la distinzione analitico-sintetico alla base sia della filosofia kantiana (con i suoi giudizi sintetici a priori) che dell'empirismo logico (con la negazione di essi), tradizione alla quale Quine pur appartiene. Quine mostra come la nozione di analiticità rimandi inevitabilmente alla nozione di sinonimia linguistica (non possono esistere scapoli sposati, perché "scapolo" significa precisamente "non sposato"). La nozione di sinonimia, a sua volta, rimanda circolarmente alla nozione di analiticità.

Questo risultato di Quine, benché celebre e acclamato, ricevette pure numerose contestazioni (e ancora vi è chi difende il dogma), in base al fatto che l'essere la nozione di analiticità definita in modo circolare non ne dimostra rigorosamente la vacuità. Il punto però non è tanto che l'analiticità non possa essere definita in maniera esatta (ad esempio in un linguaggio artificiale): il punto è che ai fini della descrizione del mondo e della scoperta scientifica essa è più un peso che un utile strumento.

Se l'analiticità dipende dalla sinonimia linguistica, allora dipende dal linguaggio, ma il linguaggio (e qui sta la grande intuizione di Quine) non è altro che comportamento, e in quanto tale è definito da una teoria empirica (cioè sintetica). Noi dobbiamo costruire teorie provvisorie per decifrare il comportamento linguistico del prossimo, e quindi l'essere una parola sinonima di un'altra è a sua volta nient'altro che una teoria. Non si possono separare i fatti linguistici dai fatti del mondo. In più, le teorie sono sempre sotto-determinate dall'evidenza (c'è sempre più di una teoria che può spiegare tutta l'evidenza disponibile).

Quine riprende e approfondisce tali riflessioni nel libro che è il suo capolavoro: Parola e oggetto, dove introduce stavolta, per illustrare le sue tesi, l'idea della "traduzione radicale". L'impresa della traduzione radicale non è altro che un esperimento immaginario in cui un ipotetico esploratore o antropologo deve dedicarsi alla decodifica degli enunciati di una ipotetica tribù, senza l'aiuto di nessun dizionario o interprete. Evidentemente, l'unica cosa sulla quale può appoggiarsi è il comportamento dei parlanti, e osservare con quali parole reagiscono a determinati stimoli.

Per combinazione, lo stimolo che Quine sceglie come esempio è proprio il passaggio di un coniglio (sarà anche per questo che sono ossessionato dai conigli): supponiamo che un coniglio entri nel campo visivo di un indigeno e che questi esclami "Gavagai!". Siamo legittimati a dedurre che "gavagai" significhi "coniglio", soprattutto una volta che l'esperienza è stata ripetuta un numero sufficiente di volte? Non proprio.

"Gavagai" potrebbe significare anche "parte non staccata di coniglio", oppure "fase temporale di coniglio", oppure "c'è della coniglità", o un miliardo di altre cose, tutte quanti compatibili con lo stimolo. Per scegliere fra le ipotesi in concorrenza, l'antropologo sarà costretto a imparare altre parole della lingua indigena, che lo mettano in grado ad esempio di chiedere "questo gavagai è lo stesso di quello?", "quanti gavagai ci sono in questo momento?", "il gavagai di oggi è lo stesso gavagai di ieri?", e così via. Ma per imparare queste parole dovrà fare ricorso a nuove ipotesi, a loro volta incerte, in un circolo senza fine.

Così come esistono diverse teorie ugualmente in grado di spiegare tutta l'evidenza disponibile, quindi, esisteranno diversi manuali di traduzione per una data lingua, anche incompatibili fra loro ma ugualmente validi. La traduzione è sempre indeterminata. Quine, forse troppo condizionato dal comportamentismo skinneriano e dai pregiudizi riguardo i concetti che si riferiscono al mentale, sembra intendere l'indeterminatezza della traduzione come una cosa in più, diversa dalla sotto-determinatezza delle teorie scientifiche rispetto all'evidenza, ma su questo non tutti i suoi discepoli si trovano d'accordo, e anch'io nel mio piccolo trovo la distinzione fuorviante.

Ma i due concetti, insieme, permettono in effetti di comprendere come nelle nostre teorie intorno al mondo non ci sia niente che sia solo ed esclusivamente linguistico, o solo ed esclusivamente descrittivo-fattuale. In certe condizioni, ad esempio, siamo liberi di interpretare l'enunciato di qualcuno come un enunciato falso, espresso nella nostra stessa lingua, oppure come un enunciato vero espresso in una lingua diversa dalla nostra. Solo considerazioni di tipo pragmatico possono spingerci in una direzione piuttosto che nell'altra.

Le teorie scientifiche, confondendosi con i linguaggi, non si presentano mai di fronte al tribunale dell'evidenza un enunciato alla volta, ma in blocco (tesi di Duhem-Quine o "olismo della conferma"), il che può rintuzzare le tesi di certo falsificazionismo ingenuo popperiano. È sempre possibile, di fronte a un risultato inatteso, modificare la struttura della teoria in modo che l'enunciato osservativo falsificato mantenga invece la sua verità. Nella tradizione empirista, che mantiene una netta separazioni fra enunciati osservativi e teorici (linguistici), questa è un'eresia, ma proprio questo è l'altro dogma dell'empirismo denunciato da Quine: non si può separare l'osservativo dal teorico. I nostri concetti, anche i più astrusi e lontani dall'esperienza sensibile, fanno parte della descrizione del mondo allo stesso titolo di qualsiasi banale enunciato, come "toh, un coniglio".

Certe formulazioni di Quine possono farlo sembrare un dannato relativista, ad esempio con l'affermazione che teorie fra loro incompatibili possono essere entrambe valide, nella misura in cui riescono a spiegare ugualmente tutta l'evidenza disponibile. In realtà le due teorie dovrebbero essere considerate empiricamente equivalenti, ovvero due diversi modi di descrivere le stesse esperienze, o due linguaggi diversi. Non è un'affermazione molto diversa dalla semplice constatazione che la temperatura di un corpo può essere misurata sia in gradi Celsius che Fahrenheit, cosa che non rende la misurazione della temperatura un fatto soggettivo.

Quello che fa Quine, piuttosto, è "naturalizzare l'epistemologia", ovvero portare le discussioni dei filosofi, e i loro concetti, sullo stesso piano di quelle degli scienziati naturali. L'epistemologia non si muove su un terreno più sicuro, e più saldo, dei mutevoli enunciati empirici, non può sottrarsi al tribunale dell'evidenza. Non c'è differenza fra un filosofo e uno scienziato naturale, e questa è una cosa che Quine ha ben illustrato, riuscendo spesso a mostrare come anche in filosofia, così come nella fisica o nella chimica, si può avere torto o ragione, a prescindere dall'abilità dialettica e dai giri di parole.

Altre cose per cui Quine è famoso:
  • una bella versione del paradosso del mentitore, secondo cui "è falso se preceduto dalla sua citazione" è falso se preceduto dalla sua citazione;
  • in informatica, è detto quine un programma che restituisce come output il suo stesso codice;
  • nel Philosophical Lexicon di Daniel Dennett, il verbo "to quine" significa "negare risolutamente l'esistenza o l'importanza di qualcosa di reale o significativo".

venerdì 17 luglio 2009

soluzione

Come Paperino ha capito subito, l'elenco del post precedente si riferisce a persone che hanno (o dicono di avere, o si dice che abbiano) predetto la crisi economica in anticipo, ma la lista è sicuramente incompleta.

La maggior parte di quei nomi non li avevo mai sentiti prima (non ho tutta questa conoscenza), e li ho trovati facendo qualche ricerchina con Google. Ma anche scorrendo i nomi più famosi, mi pare che emerga qualcosa di interessante, o meglio ancora, non emerge proprio nulla, nel senso che quelle persone non hanno nient'altro in comune.

Paul Krugman (l'ultimo premio Nobel per l'economia) è un neo-keynesiano che durante l'amministrazione Bush non ha mai perso occasione di attaccare la sua politica fiscale. Quando i giornali hanno dato la notizia del Nobel lo hanno presentato come "l'economista anti-Bush che aveva predetto la crisi", ma credo che sia la solita semplificazione dei media. In realtà mi sembra che Krugman sia stato sorpreso, come tutti, dalla portata dell'attuale crisi, ma è vero che aveva individuato con largo anticipo la bolla speculativa immobiliare.

Neo-keynesiano è pure considerato Robert Shiller, il quale oltre ad avere scritto Esuberanza irrazionale nel 2000, aveva anche lui messo in guardia più recentemente sulla bolla immobiliare. Di Nouriel Roubini hanno parlato un po' tutti i giornali con interviste al "nuovo guru della finanza che ha predetto la crisi senza essere ascoltato", e stando a Wikipedia è neo-keynesiano pure lui.

Paul Schiff e Ron Paul (quest'ultimo non è un economista di professione ma è un politico che si è pure candidato con i repubblicani alla presidenza americana nel 2008, ottenendo un certo successo), appartengono invece alla schiera dei libertari, o la scuola austriaca di economia. Di Schiff in effetti circolano dei video su Youtube con alcune profezie apocalittiche.

Poi ci sono gli outsider. Che dire, ad esempio, di Eugenio Benetazzo? È un tipo che si definisce "primo e unico predicatore finanziario in Italia", e sul suo sito vende libri e Dvd che trattano anche i temi del signoraggio e delle scie chimiche (cosa c'entrano le scie chimiche con l'economia? boh, tranne forse il fatto che l'operazione sarebbe finanziata tramite il reddito del signoraggio).

Park Dae-sung è un blogger sud-coreano che dopo essere divenuto molto influente grazie ad alcune previsioni azzeccate (il crollo della Lehman-Brothers con una settimana di anticipo) ha finito per farsi arrestare perché i suoi post avevano cominciato a "causare", più che predire, il panico nei mercati sud-coreani (ma probabilmente anche per vendetta da parte del governo per le critiche ricevute).

Fermiamoci qui: abbiamo almeno due iper-liberisti della scuola austriaca, tre neo-keynesiani, e un signoraggista (più un oscuro blogger asiatico). Poi potremmo metterci alcuni tipi di comunisti residui alla Giulietto Chiesa, quelli che dalla seconda metà dell'Ottocento a oggi continuano a vedere in ogni crisi il segnale del fallimento e del crollo sempre imminente del capitalismo. E pure i malthusiani, già che ci siamo. E tutte queste persone credono che la loro visione economica sia stata confermata dal successo delle loro previsioni, e che quindi bisognerebbe dare ascolto a loro se vogliamo uscire dalla crisi. Peccato che non possano avere tutti ragione, contemporaneamente.

In realtà fra queste persone, probabilmente, c'è anche chi ha cominciato a predire sventure cinque minuti dopo essere uscito dal ventre della madre. Dato che le cose non possono andare sempre bene, è ovvio che ogni tanto gli eventi sembrano dar loro ragione. È un po' come giocare alla roulette: puoi puntare sempre sul rosso, o sempre sul nero. Ogni volta che esce il colore che hai scelto ti congratulerai con te stesso per la tua intelligenza nell'aver adottato la giusta teoria, e quando invece uscirà il colore sbagliato puoi sempre prendertela con la sfortuna.

C'è anche chi adotta la stategia opposta, ottimista a oltranza, ma ha meno successo, perché quando dici che tutto va bene ed effettivamente tutto va bene la gente non sta a lanciare accuse e recriminazioni contro chi aveva sbagliato le previsioni, mentre quando tutto va male c'è invece bisogno di trovare un capro espiatorio e lo si individua in quegli irresponsabili che non avevano dato ascolto alle Cassandre, che invece possono assurgere al ruolo di eroi.

Con questo non voglio dire che tutti gli economisti citati siano solo cialtroni fortunati: può darsi che alcuni di loro abbiano davvero visto giusto, e che abbiano effettivamente individuato i segnali della crisi che stava arrivando. Voglio solo spiegare i motivi della mia irritazione ogni volta che sento dire che il tale economista o la tale scuola di pensiero è da seguire in quanto "ha saputo predire la crisi economica", magari intendendo le folli teorie del signoraggista di turno.

Questo è anche colpa dei giornali, e del loro modo superficiale di semplificare sempre tutto. Per esempio, quando a Krugman è stato conferito il Nobel in pochi hanno saputo spiegare quale fosse il contributo dato da Krugman alla scienza economica. Siccome Krugman aveva una rubrica sul New York Times dove era solito attaccare Bush, molto più comodo presentare il premio come una trionfo del pensiero progressista sulla destra neo-liberista, e già che ci siamo anche inventarsi una sua soprannaturale capacità profetica (beh, non del tutto campata in aria, dato che Krugman un decennio prima aveva predetto la crisi asiatica).

Il problema è che poi in questi giochini ci cascano tutti, quindi capita di leggere in giro articoli dedicati alle presunte idee di Krugman dove viene solitamente presentato come una sorta di esaltato no-global comunista trinariciuto statalista e anti-mercato. Altrove viene addirittura dipinto come "il consigliere ufficiale di Obama", il che è falso perché Krugman è molto critico anche col nuovo presidente. Le critiche sono legittime, ma dovrebbero essere fondate su qualcosa di più di qualche pettegolezzo. Ma Paul Schiff, invece, lui sì che ha la sfera di cristallo, perché sta dalla parte giusta... e infatti aveva predetto la crisi (video su Youtube).

Viceversa, l'essere liberisti e pro-mercato, appena si esce a fare una passeggiatina al di fuori della cricca libertaria, è oggi considerato una sorta di crimine contro l'umanità. Il mercato ha fallito, e non ha saputo prevedere la crisi, è il mantra ripetuto ovunque. La crisi sarebbe anche la dimostrazione che i presupposti stessi del sistema capitalista sono erronei, perché la crescita non può durare all'infinito, e le risorse sono limitate.

Forse, ma che cazzo c'entra? questa crisi non ha nulla a che vedere con l'esaurimento delle risorse naturali e con lo sfruttamento del pianeta, ha a che vedere con la strozzatura del credito alle banche causata da investimenti troppo allegri. Tanto vale allora dire che la crisi economica dà ragione agli interisti e torto ai milanisti.

La finisco qui, sennò anche questo post, scritto in maniera abbastanza estemporanea, mi viene troppo lungo. La morale qual è? L'economia non è proprio una scienza esatta, dove il successo si può misurare in base al numero di previsioni azzeccate o fallite. Proprio questo la rende territorio di caccia di guru improvvisati e di falsi profeti. Ma le teorie economiche andrebbero lette e capite, oltre che stilare una lista di profezie avverate. E bisognerebbe finirla di parlare a vanvera.

mercoledì 15 luglio 2009

indovinello

Paul Krugman
Eugenio Benetazzo
Nouriel Rubini
Paul Wilmott
Paul Jorion
Meredith Whitney
Peter Schiff
James Hamilton
Raghuram Rajan
Claudio Borio
Jakob Brochner Madsen
Robert Shiller
Ron Paul
Kevin Phillips
William White
Dean Baker
Michael Hudson
Wynne Godley
Fred Harrison
Eric Janszen
Stephen Keen
Kurt Richebächer
Marc Fabar
Jim Rogers
William Greider
Gerald Celente
Med Yones
Park Dae-sung
Jon Markman
Jim Jubak

No, non è un elenco telefonico. Cosa sarà che lega insieme tutti questi nomi?
La soluzione nei prossimi giorni.

martedì 14 luglio 2009

chissà dove voglio andare a parare

Francis Scott Fitzgerald una volta disse a Hemingway: "Sai, Ernest, i ricchi sono diversi da noi". "Certo – rispose Hemingway – hanno molti più soldi". Ottima battuta, ma forse Hemingway avrebbe dovuto prendere la frase maggiormente sul serio: i ricchi sono davvero un interessantissimo argomento per un antropologo.

Il primo, forse, a studiare con occhio clinico e distaccato il comportamento dell'élite finanziaria fu l'economista americano Thorstein Veblen, con la sua Teoria della classe agiata, un libro oltraggioso (per il 1899), nel quale le abitudini dei ricchi venivano esaminate con lo stesso linguaggio che un antropologo del tempo avrebbe dedicato ai rituali di una popolazione barbarica. Veblen aveva in mente i ricchi a lui contemporanei, gli americani della seconda metà del diciannovesimo secolo, e non ogni aspetto della sua analisi viene oggi considerato attuale, ma l'interesse e l'originalità del suo approccio rimangono altissimi.

La civiltà pacifica industriale che esprime l'odierna "classe agiata", per Veblen, non è che l'evoluzione della primitiva "civiltà di rapina", dove il prestigio sociale viene conferito a coloro che depredano i nemici dei loro averi, almeno finché esistono tribù nemiche da depredare. L'utilità del "bottino", in questa fase, viene spalmata sull'intera comunità, ma il predone ha in più l'utilità "derivata", ovvero il vantaggio in termini di status conferitogli dalle sue imprese. Il lavoro manuale è quindi considerato prerogativa femminile, incompatibile con le più nobili attività di rapina. Le attività più onorevoli invece sono proprio quelle che implicano la coercizione dell'uomo sull'uomo, al contrario di quelle "industriali", che comportano la trasformazione della materia inanimata.

Nell'evoluzione in senso pacifico della civiltà di rapina, e l'istituzione della proprietà privata, il divario fra gli interessi dei membri della classe agiata (ex-predoni) e quello della comunità di riferimento diviene più evidente, e acquista sempre più importanza l'utilità derivata rispetto al valore d'uso degli oggetti. L'antagonismo si sposta dal confronto tra le diverse tribù, dove vince chi ha accumulato più bottino, al confronto individuale all'interno della comunità. In tale fase il segno convenzionale di status è dato dalle ricchezze possedute (che possono essere il prodotto dell'attività di rapina oppure del lavoro delle donne e degli schiavi, e quindi in ultima analisi riconducibili alla rapina) le quali però non hanno valore in sé, ma solo appunto come simboli di status.

Il prestigio conferito odiernamente dalla ricchezza deriva quindi, atavicamente, dall'onore riservato a chi aveva compiuto grandi imprese, ma successivamente le ricchezze possedute acquistano titolo di merito in sé. Meritevole, come si diceva, è anche considerata l'astensione dal lavoro produttivo (l'agiatezza vistosa), resa possibile dalla proprietà privata che in origine è soprattutto proprietà sulla donna e, in seconda istanza sugli schiavi. Anch'essa è meritevole, in origine, solo in quanto simboleggia le imprese compiute, per poi divenire, con la forza dell'abitudine, un titolo onorifico in sé.

Ma siccome l'agiatezza (la nullafacenza) deve poter essere percepita all'esterno, essa si rende visibile tramite particolari segnali, come ad esempio la cultura e le buone maniere: padroneggiare le lingue morte, conoscere le usanze dei popoli asiatici, oppure l'eleganza dei modi e l'eloquio forbito, indicano alla comunità di riferimento che il possessore di quei talenti ha impiegato gran parte del suo tempo in attività non produttive (da qui l'elogio dell'otium degli antichi), per assimilare quelle nozioni e aderire in maniera apparentemente istintiva a un certo codice di comportamento.

Con la graduale trasformazione della civiltà di rapina in pacifica civiltà industriale, però, le donne possono venire attratte nel circolo dell'agiatezza vistosa e diventare quindi, da schiave che erano, mogli, mentre gli schiavi più legati al servizio della persona diventano cortigiani e vassalli: tracce dell'antico legame di servaggio rimangono sempre, ma l'agiatezza vistosa delle mogli (e dei cortigiani in livrea) diventa simbolo dell'alto status del proprietario originario. Gran parte della servitù svolge infatti compiti esclusivamente cerimoniali, che possono essere considerati addirittura onorevoli, trasferendo su di loro una parte del prestigio associato al padrone, e che richiedono anch'essi una gran perdita di tempo in attività sostanzialmente oziose. Il ricco si misura quindi anche dal numero dei suoi favoriti e protetti (oppure amanti).

La classe agiata, che non ha più nemici al quale fare la guerra, si dedica all'emulazione di tale attività in quelle che sono le odierne vestigia dell'attività di rapina: la caccia, lo sport, e la politica (in alternativa, invece di dedicarsi in prima persona allo sport, attività che comunque richiede di sudare, ci si può impegnare in questa attività indirettamente, comprando una squadra di calcio). Tutte attività, come si può ben vedere, che implicano la sopraffazione del prossimo (uomo o animale).

Si spiega anche così, per Veblen, il fenomeno del "consumo vistoso", ovvero l'abitudine di dissipare grandi ricchezze e merci. Nella teoria di Veblen i beni non vengono consumati in quanto "utili", ma al contrario più un bene posseduto è inutile e costoso, e più funziona come segnale di status. Buttare un milione di euro nel camino è certamente un danno, ma al tempo stesso segnala che chi compie quel gesto può permetterselo. Ricco è colui che ostenta la più assoluta indifferenza nei confronti del denaro, al punto che in gergo economico viene chiamato "bene Veblen", un tipo di bene la cui desiderabilità aumenta insieme all'aumentare del suo prezzo. Una camicia firmata non ha ovviamente nulla di speciale rispetto a una qualsiasi camicia, tranne il fatto che chi la possiede sta comunicando agli altri di avere speso molto per comprarla (questo dovrebbe spiegare anche perché le squadre di calcio hanno deficit così spaventosi).

Una forma eticamente più corretta di consumo vistoso può naturalmente prendere anche la forma della beneficenza (che ha raggiunto, tramite Bill Gates, dimensioni davvero ragguardevoli), oppure dell'impegno sociale (fare conferenze sul disboscamento dell'Amazzonia, produrre film sul riscaldamento globale, o concerti contro la fame in Africa). Ma il consumo vistoso regola soprattutto i canoni del gusto: le cose considerate più belle sono invariabilmente le più costose (e sono belle proprio in quanto costose, non costose in quanto belle), e perdono il loro fascino quando diventano accessibili a tutti.

La teoria di Veblen sul consumo vistoso ha peraltro trovato una conferma, in ambito naturalistico, con "il principio dell'handicap" formulato dal biologo israeliano Amotz Zahavi: secondo questa teoria caratteri apparentemente non adattativi, come l'ingombrante coda del pavone, e che in precedenza venivano spiegati solo per il tramite della selezione sessuale, potrebbero paradossalmente essere stati selezionati proprio in quanto non adattativi. Il principio è che la coda del pavone, con la sua inutilità e col suo ingombro, segnala l'ottimo stato di salute del pavone, il quale può permettersi di portarsi dietro un'appendice così costosa solo se perfettamente in forma sotto tutti gli altri aspetti (Geoffrey Miller ha suggerito che il cervello umano, col suo gigantismo, potrebbe essere la nostra coda di pavone).

I "segni" dello status, naturalmente possono cambiare nel tempo: ad esempio se una volta l'abbronzatura era tipica della classe lavoratrice che stava all'aperto nei campi, mentre il pallore della pelle era considerato un simbolo di nobiltà, oggi la tintarella è diventata esteticamente gradevole, quale segno del fatto che non si passano le ore della giornata in ufficio. Ragion per cui molti passano ogni minuto possibile del loro periodo di vacanza dal lavoro nel tentativo di arrostirsi la pelle, nonostante l'handicap costituito dall'accresciuto rischio di melanoma. E naturalmente c'è chi si ricopre il volto di abbondanti strati di cerone nel tentativo almeno di simulare un colorito bronzeo.

Le abitudini della classe agiata, comunque, si riflettono sull'intero corpo sociale, in base al principio per cui la principale molla del comportamento, dopo l'istinto di conservazione, è l'istinto di emulazione. Ogni uomo deve distinguersi dai propri simili, ovvero da coloro che appartengono alla stessa classe, e nel tentativo di distinguersi deve prendere a modello i membri della classe immediatamente superiore. Ne consegue che la classe agiata è l'arbitro finale del gusto e detta le regole anche nel campo, ad esempio, delle buone maniere, ma ne consegue anche che i canoni del gusto sono perpetuamente mobili.

Quando le abitudini della classe agiata diventano accessibili a tutti (vuoi perché un dato bene è diventato meno costoso, vuoi perché si tratta di un codice di comportamento che è "gocciolato" fino alle classi inferiori) la classe agiata, per segnalare il proprio status e differenziarsi dalle classi inferiori, sarà costretta a modificare le propri abitudini e i propri gusti. Quando i borghesi, ad esempio, cominciano a riempire i salotti con eleganti quadri e sculture di marmo raffiguranti divinità e putti, il membro della classe agiata reagisce e in omaggio al principio del consumo vistoso spende milioni di euro in croste che sembrano dipinte da bambini di cinque anni con lesioni alla corteccia visivo-cerebrale, ma che rappresentano la "vera" arte del momento.

Quando un certo stile di vita "decoroso" (dove il decoro è rappresentato da tutto ciò che non è immediatamente utile alla sopravvivenza e al benessere fisico o spirituale) comincia ad essere appannaggio di larghi strati della società, la classe agiata può persino reagire adottando uno stile di vita da "bohemien", cioè imitando proprio le abitudini delle classi più reiette, dalle quali le classi immediatamente inferiori devono a tutti i costi cercare di distinguersi. Per paradosso, quindi, lo status può esprimersi anche nella violazione delle più elementari regole di buon comportamento: l'indifferenza ai codici segnala che il trasgressore può permetterselo. Il massimo segnale di status è mettersi a orinare dentro la piscina, ma dal trampolino.

In una evoluta società democratica, però, lo status assegnato alla ricchezza è separato dal potere personale conferito dalla carica politica, che è più proprio delle società feudaleggianti o semi-barbariche. Il ricco è appunto e semplicemente il ricco, che è libero di dissipare le sue ricchezze come vuole. Il mettersi eventualmente in politica è una conseguenza del suo essere ricco, un simbolo di status, ovvero il segnale che si ha molto tempo libero a disposizione e risorse personali da sprecare. Ma quando il prestigio, con tutte le conseguenze che abbiamo visto, è associato direttamente al potere politico, abbiamo il despota medioevale.

P.S. Qualsiasi assenza di riferimenti al Ddl Alfano è intenzionale.

mercoledì 8 luglio 2009

Hurt



Pochi sanno che Kermit la rana, dopo la morte del suo creatore (Jim Henson) nel 1990, ha attraversato un durissimo periodo di depressione dal quale non sembra mai essersi ripreso.

È anche vero che una certa vena malinconica è sempre stata presente nel suo personaggio, come chiunque può constatare riascoltando col senno di poi uno dei suoi vecchi cavalli di battaglia, It’s Not Easy Being Green, una canzone sul disagio di essere diversi dagli altri.

Quello che non era evidente ai suoi numerosi fan, probabilmente, è quanto il carattere di Kermit fosse fragile e delicato, e l'equilibrio tanto prossimo a spezzarsi, una volta avviata la spirale distruttiva.

Purtroppo, Kermit è stato lasciato solo. Nessuno dopo la scomparsa di Henson ha trovato la forza di sostenerlo, nessuno ha voluto prendersi l'impegno di aiutarlo a superare i suoi problemi con la droga. Fa male dirlo, ma Kermit è stato abbandonato anche dal suo grande amore, Miss Piggy.

Lo star system è così. Spietato e crudele. Ti innalza agli altari della gloria e poi, una volta che sei stato usato e sfruttato fino all'osso, ti lascia da solo con i fantasmi e i demoni che il tuo stesso successo ha contribuito a evocare.

Oggi verso una lacrima per te, Kermit, con un augurio sincero. Che tu possa ritornare la rana di una volta, anche senza la tua Piggy!

giovedì 2 luglio 2009

i misteri di Grey Gardens



Il cammino verso la celebrità, per Edith Bouvier Beale (1917-2002) e sua madre, Edith Ewing Bouvier (1895-1977), rispettivamente cugina di primo grado e zia di Jacqueline Bouvier Kennedy Onassis, ha seguito un percorso molto bizzarro.

Le "due Edie", conosciute anche come "Little Edie" e "Big Edie", all'inizio degli anni '70 vivevano da sole nella residenza di Grey Gardens, al 3 West End Road di East Hampton (New York), una casa di 28 stanze vicino all'Oceano Atlantico, e dotata (una volta) di uno splendido giardino.

La casa era stata comprata nel 1923 dal finanziere Phelan Beale, marito di Big Edie e padre di Little Edie. In quella residenza l'alta società newyorchese amava ritrovarsi per feste e ricevimenti, durante i quali Big Edie deliziava spesso i suoi ospiti con la sua voce. Nel 1931 Phelan si separò dalla moglie e andò a vivere altrove. Lei restò nella casa, divenuta impegnativa da gestire, ma continuò la sua carriera di cantante, e si legò ad altri uomini (prima un pianista poi un tuttofare).

Little Edie ebbe una gioventù dorata: frequentò le scuole più esclusive, e il suo debutto in società, nel 1936, venne riportato sulle pagine del "New York Times". Dotata anche di un certo talento letterario, aveva uno stuolo di pretendenti e ammiratori fra i rampolli della finanza e della politica, fra cui, si dice, Paul Getty Jr., Joe Kennedy Jr., e Howard Hughes. Nonostante le contrarietà del padre, trovò un lavoro come modella, coltivando il sogno di diventare una grande attrice.

Fra il 1947 e il 1952 visse a New York in una stanza al Barbizon Hotel, ebbe una relazione con un uomo politico importante ma, ahimè, sposato (Julius Krugg, Segretario degli Interni sotto Truman). Conobbe anche un famoso produttore di Broadway, Max Gordon, che sembra fosse disposto a dargli un'opportunità nello spettacolo e la invitò a un provino. Purtroppo l'opportunità non si realizzò perché, una volta finiti i fondi, la madre fu costretta a farla tornare a casa, a Grey Gardens.

A questo punto la vicenda delle due donne diventa un po' misteriosa. Non sappiamo bene cosa successe nei quasi vent'anni intercorsi fra il 1952 e il 1971, ma qualcosa, e specialmente dopo la morte del compagno della madre (nel 1963), dovette andare terribilmente storto. Le due Edie vivevano in completo isolamento, e non lasciavano mai la casa per paura dei ladri (subirono un furto nel 1968), sostenendosi grazie alla vendita dei gioielli e dei mobili di famiglia.

Nel 1971 la casa subì un'ispezione da parte del locale Dipartimento della Salute, che si trovò di fronte uno spettacolo agghiacciante. L'edificio era in totale rovina: gli interni erano sommersi dai rifiuti, sacchetti di plastica, bottiglie, lattine e cartacce, con decine di gatti (e un opossum) che vi facevano i bisogni indisturbati. Mancavano l'acqua corrente e il riscaldamento. Alle due donne fu detto che sarebbero state sfrattate se non avessero provveduto alle necessarie riparazioni. La vicenda, grazie all'illustre parentela delle due Edie, diventò uno scandalo nazionale e finì sulle prime pagine. Jacqueline Kennedy fu perciò costretta a interessarsi della sorte delle sue parenti povere, e pagò di tasca sua gli interventi di manutenzione e riparazione.

La storia catturò l'interesse anche di due brillanti cineasti, Albert e David Maysles, autori di documentari (in precedenza avevano realizzato Salesman, sui venditori di Bibbia porta a porta, e Gimme Shelter, su uno storico concerto dei Rolling Stones insanguinato dagli Hell's Angels), che proposero alle Beale di realizzare un film, privo di sceneggiatura, centrato su di loro. Il documentario si sarebbe intitolato proprio Grey Gardens.

La fantasia del migliore sceneggiatore di Hollywood non avrebbe mai potuto partorire due personaggi stravaganti come Big Edie e Little Edie: nella più completa rovina e degrado domestico, le due donne erano tuttavia riuscite a mantenere l'orgoglio e i vezzi dell'aristocrazia. È incredibile vedere, nel film, come non riescano a concepire se stesse come oggetto di pietà e compassione, ma anzi si mostrino alla cinepresa con entusiasmo e addirittura con più di una punta di esibizionismo.

Little Edie è probabilmente il personaggio più amato: una donna ormai cinquantenne, che ha perso i capelli, e che nonostante le avversità della vita parla e agisce con lo spirito indomito di una ventenne. Memorabile la scena nella quale spiega, alla troupe stupefatta, il suo "costume rivoluzionario". Mai sposata, con tutte le occasioni ormai sfumate, costretta da decenni a vivere in una casa fatiscente occupandosi della madre e qualche decina di gatti, e tuttavia mai arresa, piena di umorismo e di gioia di vivere.

Tuttavia è la relazione fra le due donne il principale motivo d'interesse del film. È al suo interno, infatti, che si trova probabilmente la risposta alla domanda che ogni spettatore si pone: "com'è potuto succedere questo?". Una relazione simbiotica, fatta di grande amore reciproco, senza ombra di dubbio, ma anche in qualche modo "tossica". A volte le due sembrano passare il tempo in armonia ascoltando vecchi dischi e cantando vecchie canzoni (Tea for two), in ricordo dei vecchi tempi, ma non mancano i momenti in cui scoppia il conflitto aperto, quando Little Edie rimprovera la madre per le occasioni perdute (non a torto, forse).

Ma certe cose possono solo essere indovinate, e il fascino del film in fondo consiste più nelle domande lasciate aperte, che nelle risposte (che non dà). È il racconto epico americano alla rovescia, storia di una caduta invece che di un'ascesa verso la gloria, ma anche di sopravvivenza, di dignità nella sconfitta. E anche la rappresentazione dei misteriosi legami e influenze tra una madre e una figlia, di una relazione fatta di amori e rancori, di affetto smisurato e intollerabile dipendenza.

Alle domande lasciate aperte, comunque, tenta di rispondere un magnifico film per la tv, omonimo al documentario, uscito quest'anno in America: una fiction con Drew Barrymore e Jessica Lange (entrambe straordinarie) dove viene messo in scena anche il glorioso passato delle due donne, e si tenta qualche congettura sui motivi della rovina (rintracciati, com'è scontato, nel carattere dominante di Big Edie e nella arrendevolezza di Little Edie). Non so se verrà mai trasmesso in Italia, ma consiglio vivamente di rintracciarlo. Anche se si piange.

Big Edie morì un anno dopo la realizzazione del documentario. Little Edie vendette la casa e trascorse i suoi ultimi giorni in Florida. Oggi hanno migliaia di fan e molti siti Internet a loro dedicati: alcuni collezionisti smaniano per avere qualche oggetto a loro appartenuto o a loro collegato. La loro vicenda è diventata, oltre che un documentario e un film per la tv, anche un musical, e ha fornito il pretesto per diversi libri. La casa, oggi completamente restaurata, è visitabile in particolari occasioni, ed è divenuta meta di pellegrinaggio per gli appassionati.

Il motivo per il quale due povere donne lunatiche siano diventate oggetto di tanta devozione, è l'ultimo dei misteri collegati a Grey Gardens, e non il meno affascinante.