Statistica applicata alle scienze sociali (di Italo Scardovi)
sommario:
- La statistica e l'immanenza della variabilità
- La statistica e la realtà sociale: l''aritmetica politica"
- La statistica dalle scienze della natura alle scienze dell'uomo
- Statistica e leggi distributive: la variabilità e i suoi modelli
- L''inferenza statistica' e il problema dell'induzione
- Variabilità statistica e scienze sociali
- Statistica come canone di lettura
□ Bibliografia
1. La statistica e l'immanenza della variabilità
Statistica è parola dai tanti, forse troppi, significati. Essi riflettono, nella loro varietà, le istanze conoscitive e operative attraverso le quali sono andati storicamente affermandosi i diversi corpi di dottrina di cui si compone la disciplina che porta quel nome. Per quanto datate, e talvolta ingenue, molte istanze sono ancora oggi riconoscibili nel vario attuarsi della ricerca quantitativa, in tutte le sue declinazioni.La statistica è soprattutto un metodo. Un metodo che è luogo di incontro e di confronto tra scienze della natura e scienze dell'uomo, tra pensiero scientifico e pensiero filosofico, tra osservazione empirica e astrazione matematica; un metodo che riprende e rinnova il canone sperimentale - il canone dell'ipotesi e della prova - in tutte le scienze positive che trattano pluralità. I suoi principî, i suoi linguaggi, sono entrati nei più svariati settori del sapere, come linea di pensiero e come momento del confronto critico tra ragione ed esperienza, tra idea e fatto, tra la realtà quale è (il dato) e quale potrebbe essere (il modello), nel contesto della 'variabilità individuale'. Con queste due parole - ma, più correttamente, si dovrebbe dire variabilità interindividuale - si allude, nel linguaggio della scienza, alle differenze, anzitutto quantitative, che sussistono tra gli elementi di un insieme rispetto a uno o più caratteri. Sono le proprietà dell'insieme l'oggetto della statistica in quanto metodo scientifico.
Scienza è ricerca di invarianti e il metodo statistico ricerca invarianti: gli invarianti emergenti dalla variabilità. Essi si esprimono in 'costanti caratteristiche': valori medi, misure di disuguaglianza, indicatori della forma distributiva, parametri di relazione tra variabili. Ogni costante statistica dev'essere criticamente intesa, perché rivela una proprietà di un insieme, nascondendone altre. È sempre una molteplicità di indicatori a dare la misura e il senso delle caratteristiche di un insieme. A un valor medio, ad esempio, dovrebbe sempre accompagnarsi il grado di allontanamento da esso dei valori mediati: la variabilità, appunto.
Un aforisma popolare, ripreso in un divertente sonetto di Trilussa, irride argutamente la statistica, osservando che, se a un uomo sono toccati due polli e a un altro non ne è toccato nessuno, essa attribuisce ugualmente un pollo a testa. Così facendo, la statistica calcola un valor medio, la media aritmetica, che è, come ogni media, una reductio ad unum, un'astrazione. Ogni astrazione risponde a un'ipotesi. L'ipotesi della media aritmetica è l'equidistribuzione: un pollo a ciascuno. Non dice, quella media, come sono andate le cose: dice, i polli essendo un 'carattere trasferibile', come sarebbero andate nell'ipotesi di cui è espressione. In quanto è media, essa riassume e nasconde le situazioni individuali. Lo 'scarto' tra queste e la media esprime allora la distanza tra distribuzione reale (due polli a una persona, zero polli all'altra) e distribuzione virtuale (un pollo a persona: il pollo medio aritmetico); una sintesi, ad esempio una media aritmetica, delle differenze assolute tra i singoli valori e il loro valor medio offre una misura, una delle tante misure, della disuguaglianza.
Sono, questi appena accennati, i primi e più immediati strumenti investigativi delle scienze alle prese con la variabilità individuale. Certo, un valor medio è una quantità fittizia, ancorché possibile; tale è, ad esempio, il 'reddito medio pro capite' degli abitanti di una città, di una nazione: un dato che vale per ciò che rivela e non per ciò che occulta. Tali sono pure la 'velocità media' di una nube di molecole gassose, o il 'tempo di dimezzamento' di un aggregato di atomi radioattivi. Concetti essenziali alla teoria cinetica dei gas e alla teoria del decadimento nucleare; subito integrati, in quei contesti, dall'assetto della variabilità attorno al valore medio: rispettivamente, la legge di distribuzione (sincronica) delle velocità molecolari e la legge (diacronica) dell'emissione radioattiva. Sono leggi statistiche: non attengono all'evento singolo, non codificano il percorso di una particolare molecola, non prevedono il decadere di questo o quel nucleo, ma traggono le proprietà statistiche dei rispettivi insiemi. Astrazioni, dunque. Ma senza astrazioni non si dà scienza.
Nelle scienze non sperimentali la statistica è apparsa anzitutto nel suo momento classificatorio, che è una prima forma di astrazione. Sostituendo alla vaga pluralità degli enti singoli una più sintetica gradualità tipologica, la classificazione spoglia i fatti dei loro aspetti inessenziali e li riduce a simboli di categorie concettuali, a eventi enumerabili. Senza classi e sistemi di classi non avrebbero potuto affermarsi, a lato delle scienze fisiche (divenute, con la rivoluzione galileiana, quantitativo-sperimentali e ipotetico-deduttive), altre scienze della natura non direttamente riducibili al paradigma meccanico-causale e le stesse scienze dell'uomo: tutte le scienze dove la qualità non è necessariamente una quantità non misurata e dove non è possibile isolare e graduare le relazioni causali rendendo artificialmente ininfluente ora questo ora quel fattore.
E proprio l'assetto classificatorio ha costituito, talora, il presupposto statistico per la modellizzazione delle conoscenze fondate sull'osservazione di fenomeni spontanei in cui intervengono numerose variabili. Così è stato nelle scienze della vita, dove una lunga preparazione descrittiva e tassonomica - un modo di far scienza, da Linneo (1758) in poi, al di fuori del paradigma fisico-astronomico - ha costituito la premessa di una grande intuizione storico-evolutiva: un'intuizione profondamente innovatrice enunciata senza alcuna apparente matematizzazione. Questa verrà assai più avanti e avrà il rigore e l'eleganza di un teorema. Un teorema fondato su probabilità statistiche: il paradigma razionale di una cultura che aveva a lungo sofferto dell'incapacità di tradursi in assunti quantitativi e formali.
2. La statistica e la realtà sociale: l''aritmetica politica'
'Statistica' è vocabolo che allude, ora come sostantivo ora come aggettivo, a tutta una varietà di procedure dietro le quali non è facile intravedere una comune matrice intellettuale. Dalle elementari osservazioni di regolarità collettive all'interpretazione statistica dei fenomeni profondi della natura e dell'uomo, il panorama dei concetti e dei metodi è andato facendosi assai vario e composito: una lunga storia di intenti e di strumenti, che par quasi arbitrario comprendere sotto un'unica denominazione.
Nell'accezione più banale, 'statistica' evoca una raccolta di dati numerici (essi non sono, a dir vero, il punto d'arrivo, bensì il punto di partenza dell'analisi statistica) e in questo senso la si fa derivare dallo stesso etimo italiano donde vengono parole attinenti alle faccende degli Stati: espressione, in quell'ambito, di repertorio informativo, di documentazione quantitativa. Vi si sono riconosciute storicamente, e ancora vi si riconoscono, le grandi rilevazioni pubbliche intese alla descrizione numerica delle comunità organizzate, per un'azione di governo fondata sulle cose, argomentata nei dati. È, questa, una prima e pur vaga radice storica di una disciplina dei fenomeni collettivi sviluppatasi in tante e complesse diramazioni variamente intrecciate. Denominata, nel Seicento, 'Notitia rerumpublicarum' ('Staatenkunde' nella lingua del paese dove era sorta, la Germania, presto acquisendo dignità universitaria, soprattutto per merito di H. Conring e G. Achenwall) e motivata dall'esigenza di dati quantitativi sulle condizioni di popoli e di luoghi, essa ha dato alla disciplina un'immediata ragione pratica di essere, offrendo altresì ai metodi che verranno una prima realtà di riferimento.
Ma l'autentica radice storica della statistica in re sociali cresce piuttosto intorno al ceppo, anch'esso secentesco, dell'empirismo inglese: presso il cenacolo baconiano della nascente Royal Society, ove appaiono - ad opera anzitutto di John Graunt (1662) e di William Petty (1676) - alcuni inusitati tentativi di indagine quantitativa su popolazioni, alla ricerca di regolarità numeriche negli eventi umani. Sono i primi passi di una scienza classificatoria, enumerativa, comparativa, da cui sono venuti alcuni abbozzi di discipline oggi autonome: la demografia, la statistica economica, la matematica attuariale. Se E. Halley (1693), astronomo newtoniano, dava esempi suggestivi di una teoria quantitativa degli eventi demografici, J. Arbuthnot (1710), W. Derham (1713), J.P. Süssmilch (1741) traevano da certe 'costanti' delle popolazioni i segni di un provvidenziale 'ordine divino', offrendo nuovi argomenti alle dispute intorno alla predestinazione e al libero arbitrio. Espressioni in parte decadenti di una linea di pensiero che culminerà in un trattato sulla crescita delle popolazioni, di Th. R. Malthus (1798), destinato ad avere grande influenza sul pensiero naturalistico e su quello socioeconomico.
Questa linea di ricerca non mirava a descrivere una collettività per se stessa, ma piuttosto a trarre dalle realtà osservate, assunte come espressioni storiche contingenti di categorie fenomeniche, le leggi di tendenza delle popolazioni, le loro determinanti remote, le loro implicazioni collettive. Audaci induzioni, etichettate come 'Political arithmetic' per il loro tradurre in numeri e rapporti tra quantità - dominio sino allora incontrastato delle scienze della ϕύσιϚ - gli eventi della πόλιϚ, le vicende dell'uomo. Non mancano tra le due correnti, quella tedesca e quella inglese, interrelazioni e sovrapposizioni di qualche rilievo: comune è il contesto empirico, la realtà umana, comune è l'interesse a una rappresentazione oggettiva e quantitativa. Nell'una, tuttavia, prevale l'intento politico-amministrativo, nell'altra quello naturalistico-conoscitivo. Due tendenze tuttora presenti nelle partizioni dell'odierna demografia.
3. La statistica dalle scienze della natura alle scienze dell'uomo
Se la genesi sociale della statistica in quanto rappresentazione può ritrovarsi nelle attese delle collettività umane, se una prima ragione euristica viene dalla filosofia empirista, la statistica, in quanto metodo induttivo, muove da tutt'altre premesse. Dall'antica pratica descrittiva essa non ha tratto che il nome. Concetti e algoritmi hanno una diversa origine. Vengono anzitutto dai problemi della misura e dell'errore, in astronomia, che risalgono ancora al Seicento e che trovano nel Settecento e nel primo Ottocento coerenti formalizzazioni: i teoremi per il trattamento delle approssimazioni strumentali ripetute di una medesima grandezza fisica, giunti, attraverso i principî della probabilità (codificati da J. Bernoulli, 1713, da P.S. Laplace, 1812, da S.D. Poisson, 1836, e dalla grande scuola probabilistica francese avviata da Fermat e da Pascal intorno alla metà del XVII secolo), a dare un assetto metodologico alla ricerca sperimentale, in re naturali, sui fenomeni espressi dalla variabilità.
Sono qui le premesse della metodologia statistica per il trattamento della variabilità di grandezze sempre idealmente riferite ad ampi insiemi fenomenici, ma sempre concretamente limitate a loro sottoinsiemi. Ciò soprattutto nella sperimentazione biologica, dove hanno avuto origine gli strumenti intellettuali e tecnici dell''induzione statistica', presto traghettati anch'essi nel versante socioeconomico. Ha scritto Ronald A. Fisher, il caposcuola della metodologia statistica induttiva: "Statistica è studio di popolazioni, di aggregati di individui. Le teorie scientifiche che trattano proprietà di aggregati di individui, come la teoria cinetica dei gas, la teoria della selezione naturale e la teoria chimica dell'azione di massa, sono essenzialmente statistiche e perciò suscettibili di errata interpretazione non appena se ne perde di vista la natura statistica. Nella teoria dei quanta, ciò è chiaramente riconosciuto. I metodi statistici intervengono anche negli studi sociali ed è principalmente con l'aiuto di tali metodi che questi studi possono innalzarsi al rango di scienza. Questa particolare dipendenza degli studi sociali dai metodi statistici ha provocato l'infelice malinteso di far considerare la statistica come un ramo dell'economia, mentre in verità i metodi usati nel trattamento dei dati economici [...] hanno avuto sviluppo nella biologia e nelle altre scienze naturali" (v. Fisher, 1944, p. 2).
È vero: le teorie e i principali metodi della statistica sono sorti nelle scienze della natura e ne hanno costituito l'innervatura logica e metodologica, concettuale e algoritmica: modus operandi della ricerca e modus intellegendi dei fenomeni. Un'immagine della realtà ormai essenziale a un sapere sempre più intessuto di leggi statistiche: leggi di popolazioni, siano esse di particelle o di viventi. È la filosofia naturale venuta con l'evoluzionismo biologico, con la termodinamica, con la teoria della radioattività, con la genetica; una filosofia naturale suggellata dalla meccanica quantistica. "La fisica quantistica - ha scritto Einstein - tratta unicamente di aggregati e le sue leggi valgono per le moltitudini, non per gli individui" (v. Einstein e Infeld, 1951; tr. it., p. 294).
La conquista della variabilità - del suo ruolo, della sua genesi, delle sue leggi distributive - è stata la chiave di volta di una grande rivoluzione scientifica, che ha visto affermarsi agli albori del XX secolo una fisica statistica e una biologia statistica. Nelle realtà indagate da codeste scienze si rivela un'immanente accidentalità: quella che volge la freccia termodinamica del tempo verso lo stato più probabile, quella che gioca nella trasmissione dei caratteri ereditari come in una partita a dadi: la grande partita dell'evoluzione, che la genetica di popolazioni traduce in una relazione tra probabilità (il principio di equilibrio allelico e genotipico, detto 'teorema di Hardy-Weinberg', 1908). È l'irriducibile casualità a fare di una pluralità di accadimenti un fenomeno statistico, dell'induzione statistica un canone scientifico: il canone di una filosofia naturale aperta a una lettura non deterministica del mondo.
È vero altresì che interi corpi di dottrina apprestati dalla statistica naturalistica - in particolare dal movimento biometrico, molto attivo in Inghilterra tra fine Ottocento e primo Novecento: la culla di tanta bella metodologia - sono diventati patrimonio comune a tutte le 'statistiche applicate', e, ciò che più conta, hanno ricevuto, da queste, apporti e adattamenti metodologici. L'estensione alla fenomenologia sociale dei metodi messi a punto dalla ricerca biometrica ne ha spesso accresciuto il contenuto tecnico-formale. A cominciare dai metodi per la misura della variabilità individuale, essenziali all'analisi naturalistica, imbattutisi nel problema della disuguaglianza economica, così da suscitare, da Vilfredo Pareto (1896), a M.O. Lorenz (1905), a Corrado Gini (1914), a Henri Theil (1967), a Camilo Dagum (1977) e ad altri ancora, nuovi sviluppi concettuali e formali. Ne è venuta la 'teoria della concentrazione', di particolare rilievo nello studio della distribuzione del reddito e della ricchezza. Anche l'analisi delle serie dinamiche, sorta come misura della 'dispersione' di successioni di dati biodemografici e sociodemografici (W. Lexis, 1876), si è data nuovi strumenti per la sintesi delle variazioni di grandezze economiche (prezzi, produzioni, ecc.): dalla teoria dei 'numeri indici', di grande importanza nella statistica economica, ai metodi per l''analisi delle serie storiche', in particolare delle serie storiche economiche (v. Previsione). Ma, prima ancora, l'apporto transdisciplinare ha riguardato la definizione delle proprietà formali dei modelli assunti a rappresentare le leggi distributive della variabilità empirica, a una e a più dimensioni.
Ciò è avvenuto anzitutto nella teoria della regressione e della correlazione, forse il contributo teorico più rilevante della scuola biometrica. Così, il 'coefficiente lineare di correlazione' - che il metodo statistico deve all'astronomo A. Bravais (1846), al biometrista F. Galton (1888) e al logico matematico K. Pearson (1896) - viene adattato dallo psicologo Charles Spearman (1904) ai numeri interi delle graduatorie dei caratteri associati e diventa il 'coefficiente di correlazione ordinale', che porta il suo nome: un agile strumento investigativo che ha aperto la via a tutta una metodologia detta 'non parametrica', di utile impiego quando la traduzione delle qualità in quantità risulti incerta o troppo riduttiva e ovunque il modello lineare si riveli inadeguato.
I modelli hanno appunto costituito la principale pietra d'inciampo nell'applicazione al sociale dei canoni statistici di ascendenza astronomica o naturalistica (v. Simulazione, modelli di). Anzitutto perché, in quel contesto, i caratteri non sono sempre riducibili a scale quantitative e più spesso la classificazione ha luogo per scale 'nominali' o, quando sia ammessa una graduatoria, per scale 'ordinali'. Da questo stato di cose ha tratto origine e significato, grazie agli strumenti del calcolo automatico, un modo nuovo di scandagliare le interazioni tra più caratteri compresenti nelle unità elementari di un insieme statistico, siano essi quantitativi o qualitativi: è la cosiddetta 'analisi statistica multivariata', oggi di gran voga anche in sociologia, dove lo schema bivariato apprestato dalla scuola biometrica trascura e confonde - quand'anche sia applicabile - fattori non trascurabili e dove si impone di considerare simultaneamente le relazioni tra più caratteri, senza alcun vincolo di modelli retti da ipotesi non sempre verificabili.
Ampio è il contesto fenomenico di siffatti metodi - dalla sociologia all'ecologia, alla psicologia, alla zoologia, all'archeologia - a cominciare dall''analisi dei fattori', ideata da C. Spearman (1904), che vide in essa una "rivoluzione copernicana" per tutto un settore della conoscenza sino allora rinchiuso nel ghetto delle discipline non quantitative. Sviluppata da L.C. Thurstone (1947), è oggi divenuta un metodo esplorativo che semplifica la complessità multicaratteriale dei fenomeni sociali, puntando a identificare, attraverso le relazioni multiverse di un gran numero di variabili, alcuni fattori soggiacenti (le 'variabili latenti'). Così anche l''analisi delle componenti principali', di largo impiego nell'indagine sociale, venuta dalle intuizioni di F. Galton (1888), F.Y. Edgeworth (1892), K. Pearson (1901) e dalle soluzioni di H. Hotelling (1933).
Ancora per sottrarre l'osservazione a ogni rigidità modellistica prefabbricata è andato più recentemente formandosi un corpo di dottrina, denominato 'analisi dei dati', dovuto a un'intuizione fisheriana ripresa e approfondita da J.P. Benzécri (1973): un metodo di esplorazione dei dati statistici di un insieme, inteso per se stesso, senza alcuna pretesa inferenziale. In quell'ambito, ha rilievo l''analisi delle corrispondenze' tra diverse tipologie classificatorie fondata sul confronto, al calcolatore, delle frequenze delle rispettive classi ordinali. Di particolare significato nelle scienze umane sono pure le tecniche per razionalizzare i criteri di classificazione, a cominciare da quella per la scelta della migliore riduzione in gruppi omogenei, detta, con espressione alla moda, 'analisi dei clusters': una tassonomia numerica che risale a un'idea di Karl Pearson, ma che ha avuto grande sviluppo nella seconda metà del XX secolo, a seguito dei moderni strumenti di calcolo automatico. Ai problemi di classificazione è rivolta pure l''analisi discriminante' (F. De Helguero, 1906; R.A. Fisher, 1936; C.R. Rao, 1952), una tecnica che interviene nell'attribuzione, a uno fra più gruppi multivariati e transvarianti, di ogni nuovo elemento individuale che si aggiunga all'osservato.
4. Statistica e leggi distributive: la variabilità e i suoi modelli
Che le disuguaglianze individuali possano conformarsi a leggi distributive è intuizione antica, resa efficacemente in questo passo di un celebre dialogo platonico, il Fedone: "Credi tu ci sia niente di più raro al mondo che trovare, per esempio, o un uomo o un cane o un altro essere qualsiasi estremamente grande o estremamente piccolo? E così che trovar cosa estremamente veloce o lenta, estremamente brutta o bella, estremamente bianca o nera? Non ti sei accorto che di tutte codeste qualità gli estremi dall'uno e dall'altro lato sono rari e pochi, e che invece le qualità intermedie sono abbondanti e molte?". In queste parole non c'è soltanto l'ovvia constatazione dell'immanente variabilità: c'è l'attenzione al fatto che i caratteri e le attitudini, le grandezze e gli attributi, tendono a differire tra i singoli secondo una legge.
Ventiquattro secoli più tardi, Adolphe Quételet, un astronomo intento a cercare un ordine naturale nelle forme e nelle vicende dell'uomo, in quanto essere biologico e in quanto essere sociale, darà veste matematica a quella remota intuizione. S'accorgerà, infatti, di sorprendenti analogie formali tra la variabilità di taluni caratteri antropometrici, classificati in distribuzioni di frequenze, e il modello distributivo degli errori strumentali di misura formalizzato da A. De Moivre (1733), K.F. Gauss (1809), P.S. Laplace (1812), F.W. Bessel (1838), e ben noto agli astronomi. (Questi erano soliti riassumere le replicate determinazioni strumentali di una medesima grandezza nella loro media aritmetica, secondo un criterio il cui fondamento razionale è nel 'principio dei minimi quadrati' dovuto a Gauss e Legendre, 1806). "La tabella è formata - scriveva Quételet (v., 1844, p. 55) con emozione - esattamente alla stessa maniera delle misure dell'ascensione retta della polare". Commenterà poi (v. Quételet, 1871, p. 18), ed è quasi una parafrasi del brano platonico: "Quelli di un'estrema piccolezza, come quelli di una grandezza estrema, sono assai rari e allontanandosi da questi punti estremi [...] il loro numero aumenta. La curva sotto la quale si raccolgono è della più grande regolarità". Se Adolphe Quételet ritrovava la curva degli errori nella distribuzione di frequenza dei perimetri toracici dei soldati dei reggimenti scozzesi, James Clerk Maxwell, adottando il medesimo criterio formale, vedeva conformarsi a quel modello la distribuzione delle velocità individuali in una popolazione di molecole gassose. "Sembra - queste le sue prudenti parole (v. Maxwell, 1860, p. 382) - [...] che le velocità molecolari siano distribuite fra le particelle secondo la stessa legge degli errori di osservazione nella teoria dei minimi quadrati".
Quel modello - la cosiddetta 'curva di Gauss' - è lo schema limite di riferimento nell'analisi della variabilità di caratteri quantitativi risultanti dall'assommarsi degli effetti di innumerevoli fattori di variabilità: l'inverarsi empirico di un teorema fondamentale della convergenza stocastica, il 'teorema centrale del limite'. Dove Adolphe Quételet vedeva le 'maladresses' di una natura intenta a realizzare l''uomo medio' (l'analogo sociale - nella visione queteletiana - del centro di gravità dei corpi), l'odierno biostatistico vede il risultato asintotico di una casualità naturale profonda: il concorso additivo di molteplici fattori indipendenti di variabilità, genetici e ambientali. Era dunque necessario ridurre, per astrazione classificatoria, la variabilità individuale nella forma della distribuzione di frequenza - da allora, uno dei più comuni ferri del mestiere statistico - così da rimuovere quello che Ronald A. Fisher avrebbe definito (1962) "[...] il più grande ostacolo al pensiero razionale [...], l'ostacolo della variabilità". Che Quételet interpretasse la variabilità di alcuni caratteri biometrici dei viventi come il risultato degli errori commessi dalla natura nel riprodurre il tipo immutabile della specie - una visione fissista e creazionista presto superata dall'avanzare delle conoscenze - nulla toglie alla portata metodologica del suo contributo. (Sembra essere questa, del resto, la sorte di tanta metodologia: anche la 'teoria della regressione' venne ideata per dimostrare una tesi scientificamente infondata, dalla quale la teoria prese il nome, stranamente rimasto).
Quell'incontro tra modello astratto e distribuzione empirica segna l'atto di nascita della statistica come metodo della ricerca sull'uomo - l'uomo naturale e l'uomo sociale - nel contesto della variabilità immanente. Una variabilità che, nel raccordo tra dato individuale e dato collettivo, andava a toccare l'eterna questione del libero arbitrio. Che Quételet affidava alla provvidenza empirica dei 'grandi numeri'. "Essa fa rientrare - questa la tesi - i fenomeni sociali, osservati per masse, nell'ordine del mondo fisico". Una 'fisica sociale', dunque. Sulle orme di una linea di ricerca tendente a ricondurre gli accadimenti della vita umana all'arte combinatoria suscitata dai giochi d'azzardo - da J. Bernoulli (1713) a P.S. Laplace (1814), ad A.A. Cournot (1843): quest'ultimo divide con Quételet, nelle storiografie, il merito di aver fondato su basi quantitative le scienze sociali -, Quételet (1835) aveva colto svariate regolarità nella cadenza di eventi demografici e sociali, oltre alla già nota sproporzione numerica tra i sessi nelle nascite umane, diventata quasi un menabò semantico nel divenire delle sintassi probabilistiche della statistica; altre serie dinamiche di eventi oscillanti intorno a costanti collettive insospettate sembravano rivelare le tracce di un arcano ordine collettivo. La cadenza degli eventi sociali (anche i delitti) appariva come regolata da un'urna segreta e immutabile, contenente in numeri assegnati le parti previste nel grande copione della commedia umana, che una misteriosa lotteria, affidata alle imperscrutabili bizzarrie del caso, assegnerebbe ai singoli. Dunque, un nuovo determinismo, un determinismo collettivo, che reggerebbe allo stesso modo natura e società, caratteri metrici e qualità morali dell'uomo.
Questa dell'unificazione concettuale di scienze naturali e scienze sociali all'ombra di un medesimo paradigma resta una tentazione seducente e ricorrente: dalla filosofia positivista di Comte a quella neopositivista del Wiener Kreis, e ad altro ancora. Si tramanda, di autore in autore, da Comte a Mill, da Spencer a Pareto, da Weber a Neurath, l'anelito all'unità del sapere. Auguste Comte (1830) propugnava una sociologia capace di cogliere "[...] le invariabili leggi naturali della società", John Stuart Mill (1843) esortava alla ricerca delle "[...] leggi empiriche del vivere sociale", Herbert Spencer (1870) puntava alla "[...] riduzione dei fenomeni sociali a relazioni di grandezza". Un'aspirazione che sempre ritorna: ancora Pareto (1916) non esitava a proporsi di "[...] costruire una sociologia sul modello della meccanica celeste". Più tardi, Bertrand Russell (1948) auspicava "[...] una scienza sociale [...] fondata su leggi valide per grandi numeri". Ma l'assunto ha un significato del tutto nuovo. Dai tempi di Quételet, di Comte, di Mill, il quadro scientifico di riferimento è profondamente cambiato. Alle regolarità dei grandi numeri si è ormai imparato a guardare in tutt'altro modo, nella consapevolezza che l''urna' dei fenomeni sociali non è preordinata e soprattutto non è immutabile e che la variabilità dei caratteri dell'uomo, come di qualunque specie vivente, ha tutt'altra genesi e tutt'altra funzione. Questa, delineata da Darwin in tutta la sua indeterminatezza evolutiva; quella, svelata da Mendel in tutta la sua casualità combinatoria.
Trattare di statistica applicata alle scienze sociali significa ripensare codesti intenti, discutere i problemi che li hanno suscitati. E non soltanto perché "chi non conosce la storia della propria scienza è destinato a ripercorrerla" (Santayana), ma anche e soprattutto perché quel passato conserva una sua indubbia attualità. È un fatto che si trascorre dalla fenomenologia naturale a quella economica e a quella sociologica, perdendo in valore nomico, in sistematicità teorica. Ed è proprio sul terreno sociale che tutti i tentativi di una 'scienza unificata', prima e dopo il fervido discutere del circolo viennese, hanno finito per arenarsi. Non tanto nell'economia, di per sé oggettiva e quantitativa, quanto nella sociologia, dove non è facile configurare un coerente assetto nomologico e dove entrano in gioco giudizi di valore che la sospingono inevitabilmente dall''essere' al 'dover essere'.
5. L''inferenza statistica' e il problema dell'induzione
L'interazione metodologica tra statistica naturalistica e statistica economico-sociale impronta pure il capitolo concettualmente più controverso della disciplina: l''induzione statistica'. Essa ricorre quando l'osservato è soltanto una parte dell'osservabile e si devono evincere, da quello, le proprietà di questo. Le informazioni tratte dall'osservato - e in quei limiti esaurienti - rappresentano così una parte circoscritta (in gergo: un 'campione') di un più ampio insieme, sia esso composto da una pluralità finita di elementi e quindi interamente percepibile e rilevabile, se non percepito e rilevato, o sia invece da assumere come un 'universo' categorico di riferimento, virtualmente illimitato. Il campione è una scelta di opportunità nella prima fattispecie, di necessità nella seconda.
È questo il contesto metodologico dell''inferenza statistica', ossia dei criteri e degli algoritmi per l'induzione delle proprietà statistiche di un insieme da quelle di un suo sottoinsieme. Se la conoscenza della realtà sociale, riferita a popolazioni finite, si è avvalsa a lungo di rilevazioni 'per totalità' - le grandi rilevazioni censuarie che rispecchiavano per lo più realtà statiche, cosicché i dati acquisiti potevano valere per un ampio tratto di tempo - non per questo era rimasta inavvertita l'esigenza di una più agile e immediata conoscenza delle realtà demografiche, economiche, sociali. Risalgono alla fine del XIX secolo i primi interrogativi coerenti sul valore conoscitivo di rilevazioni limitate a campioni assunti in ragione di una loro accertata rappresentatività: rilevazioni dalla validità induttiva strettamente subordinata alla scelta, sempre soggettiva, degli elementi campionari. Ma presto gli sviluppi teorici del calcolo delle probabilità - la più importante radice storica del metodo statistico, anch'essa venuta dal 'grande secolo' (v. Probabilità) - porteranno al riconoscimento del valore induttivo di campioni formati affidando alla pura casualità - ora assoluta, ora guidata da opportune stratificazioni delle popolazioni - l'individuazione dei costituenti il campione. Ancora un criterio oggettivo prestato dalla ricerca sperimentale (passata dallo studio dell'uniforme allo studio del variabile) all'indagine sociale (rivolta a collettività umane sempre più rapidamente mutevoli).
La possibilità di trarre la rappresentatività di un campione dalla essenziale casualità del criterio di individuazione dei suoi componenti - argomentata da A.L. Bowley (1923), matematizzata da Jerzy Neyman (1934) e arricchita poi dalle varie scuole metodologiche (rilevante il contributo di Leslie Kish, 1970) - diverrà l'assunto teorico portante della 'teoria dei campioni casuali'. Le proprietà statistiche di un campione casuale possono differire, e in generale differiscono, da quelle della 'popolazione' che è chiamato a rappresentare (e ciò per effetto dell''errore di campionamento': l'errore casuale intrinseco al procedimento), ma il metodo garantisce che tale differenza tende a essere tanto più improbabile quanto più è grande, e assegna le regole per valutarne l'errore medio; un errore che diminuisce con l'ampliarsi del campione. È questo il fondamento teorico di tutte le odierne rilevazioni campionarie in ambito economico, demografico, sociale, politico: dal 'controllo di qualità' alle 'analisi di mercato', ai 'sondaggi demoscopici', e alle tante rilevazioni periodiche pubbliche, quali ad esempio, in Italia, quelle sul costo della vita e sulle forze di lavoro. Il ricorso a indagini per campione è un'esigenza della società moderna, obbligata a conoscere, con tempestività e duttilità, realtà che si rinnovano.
Questo della statistica 'inferenziale' (o, come sarebbe più corretto dire, 'induttiva') è il corpo di dottrina più suggestivo e dibattuto del metodo statistico. Codificando i principî teorici, essenzialmente probabilistici, per indurre le proprietà statistiche (ignote) di un insieme da quelle (note) di un suo sottoinsieme interamente o parzialmente casuale, l'inferenza statistica va a toccare una delle questioni più controverse del pensiero filosofico: la 'giustificazione dell'induzione', ossia la ricerca di un fondamento razionale dell'abitudine a protendere al di là del conosciuto i dati dell'esperienza, a estendere a un tutto, determinato o indeterminato, le caratteristiche accertate in una parte di esso, anche minima. E qui comincia il distinguo tra le diverse linee di pensiero, dall'empirismo estremo all'estremo razionalismo. Esse trovano composizione nella formulazione bayesiana dell'inferenza induttiva, che gradua, in termini probabilistici, il valore delle conoscenze generali e quello dell'informazione campionaria (v. Probabilità).
La teoria statistica delle inferenze da campioni ritrova così - anzitutto nella 'teoria della stima' (stima dei parametri della popolazione attraverso le costanti del campione) - gli interrogativi sull'induzione sollevati da David Hume (1748), e dà al problema che fu definito 'lo scandalo della filosofia' una propria soluzione empirica. Quel problema perde infatti la sua tradizionale rigidità quando l'atto induttivo attiene a proprietà statistiche, a enunciati probabilistici. Il fondamento dell'induzione statistica è nell'immanente variabilità fenomenica e nella necessità di trarne, per il conoscere e per l'agire, espressioni sintetiche, leggi di tendenza, regolarità collettive. La generalizzazione di una proprietà statistica espressa dalla variabilità individuale - il balzo dal noto all'ignoto - ha infatti, per l'inerzialità empirica dei grandi numeri, più forza induttiva e più valore nomico della estensione di una proprietà individuale invariante (sempre esposta alla smentita dell'evento controfattuale); e l''induzione per enumerazione' non è più res puerilis, come nella logica di un sapere che enunci proprietà invarianti, eventi ripetitivi, uniformità deterministiche: è momento induttivo essenziale al rivelarsi delle leggi. Leggi statistiche, emergenti dalla pluralità diseguale.
L'immanenza della variabilità condiziona le stesse scienze sperimentali. Il metodo statistico vi interviene con concetti e strumenti in cui ritornano le 'sperienze' galileiane e le 'tabulae' baconiane. Scienza è sempre confronto tra ipotesi e dato, ma nei fenomeni espressi dalle disuguaglianze individuali, il raccordo metodico tra il dato e l'ipotesi impone di sottrarre il momento della prova al dubbio più insidioso per una ricerca calata nella variabilità: il sospetto, tanto più incombente quanto più esiguo è l'osservato, che l''errore di campionamento' ne tradisca le proprietà statistiche. È questa la ragion d'essere della teoria statistica per il controllo di un'ipotesi al vaglio dei dati empirici, introdotta nel primo trentennio del XX secolo dai continuatori della scuola biometrica, e soprattutto da R.A. Fisher, al quale si devono, fra l'altro, metodologie fondamentali, ove il modello teorico di riferimento è ancora la 'gaussiana': dalla 'teoria della significatività' (1922) alla 'teoria del piano degli esperimenti' (1935). Anche di questi strumenti intellettuali e formali hanno preso ad avvalersi le discipline economiche e sociologiche.
E proprio in tali ambiti hanno trovato una ragione empirica le metodologie inferenziali 'non parametriche'. Più lasche, ma per questo più adatte a fenomeni non assoggettabili a modelli formali e dove la misura, ove sia possibile, va intesa come indicazione di tendenza, come approssimazione di una qualità graduabile, non come l'espressione di un ordinamento metrico rigoroso dotato di additività e di proporzionalità. È da chiedersi, del resto, cosa significhi la precisione in certi contesti, ed è da ricordare che anche nelle cosiddette 'scienze dure' si conviene di riguardare talune misure come approssimazioni numeriche di un intervallo di indifferenza intrinseco alla definizione stessa di misura. Più che la caduta di un mito (il mito della certezza), il segno di un'accresciuta consapevolezza metodologica.
6. Variabilità statistica e scienze sociali
Le sintassi statistiche passano attraverso una varietà di campi semantici, e tuttavia si avverte ancora una certa carenza di scambi transdisciplinari: nei concetti, più che negli algoritmi. Se, nelle scienze della materia e della vita, la statistica è diventata la chiave interpretativa di tutta una realtà profonda, non altrettanto sembra essere avvenuto nelle scienze dell'uomo. Eppure, il fenomeno umano è di per sé collettivo, la realtà sociale è fatta di quelle che Einstein chiamava, in senso figurato, 'le moltitudini': esprime variabilità, ossia disuguaglianza tra gli individui. Il modus intellegendi statistico, che tanta parte ha avuto nella fisica del micromondo e nella biologia evoluzionistica, quale riscontro gnoseologico ha avuto nelle discipline sociali? E quale valore euristico ha assunto, in quei contesti, il modus operandi della statistica? Degli strumenti dell'indagine statistica le scienze sociali si avvalgono da tempo, sedotte dal facile uso dei programmi di calcolo automatico preconfezionati. La domanda è se l'appropriarsi degli strumenti non implichi la conoscenza dei principî da cui traggono origine e significato.
'Scienze sociali' è denominazione che copre un ampio arco culturale, assai differenziato al proprio interno, e si deve perciò distinguere. Attorno all'economia, scienza quantitativa capace di astrazioni, sono cresciute discipline statistiche altamente formalizzate, a cominciare dall'econometria; quell'econometria in cui Edmond Malinvaud (1993) vede "[...] anzitutto un metodo per il trattamento induttivo delle osservazioni, analogo a quello adottato nelle scienze naturali, per utilizzare i dati sperimentali" (v. Econometria). Le altre discipline sociali, se si eccettua in parte la demografia (v. Demografia) e certa psicologia, sembrano, da un lato, patire l'oggettiva difficoltà di darsi un linguaggio di tipo matematico (quasi che non possa darsi scienza in altro linguaggio e quasi che un ragionamento sia matematico solo se passa attraverso calcoli); e, dall'altro, appagarsi di un facile descrittivismo episodico, quando non di un oscuro verbalismo chiuso in se stesso. (Dice, beffardo, Mefistofele, nel celebre dialogo faustiano: "Proprio là dove mancano i concetti compare a tempo opportuno una parola").
Il fragile impianto teorico e il limitato grado di generalità induttiva hanno esposto le scienze sociali a ogni manicheismo filosofico: dallo scientismo positivistico all'idealismo antiscientifico. Le scienze sociali sono prima di tutto le scienze dell'agire umano, individuale e collettivo. Esse sono tutte attraversate dalla 'variabile uomo', nella sua complessità naturale e sociale. Una complessità che sembra opporsi a un assetto razionale delle conoscenze anche all'interno della scienza che del comportamento umano ha fatto l'oggetto della propria ricerca: la psicologia. Di lì muove l'interrogativo di B.F. Skinner (v., 1975; tr. it., p. 73): "Perché è tanto difficile trattare scientificamente del comportamento umano? Perché, in questo campo, sono miseramente falliti tutti i metodi che avevano riportato splendidi successi altrove? Forse che il comportamento umano oppone eccezionali ostacoli alla scienza?".
La scelta di Skinner è drastica: la rinuncia alla statistica, il rifiuto di osservare pluralità. Ignora così la variabilità individuale - come già aveva fatto, e con qualche ragione, Claude Bernard (1865) nel fondare la fisiologia come scienza sperimentale; indaga sul singolo, preferendo osservare - questo il suo assunto - "cento volte uno stesso soggetto piuttosto che cento soggetti una volta sola". Nulla quaestio. È ovvio che si può far scienza - e si fa scienza - su un solo soggetto come su cento soggetti: ma, nell'una e nell'altra fattispecie, scienza è nel generalizzare i risultati, nell'andare al di là dell'osservato. Non sussiste incompatibilità - anzi, v'è integrazione - tra l'indagare un soggetto e l'indagare una pluralità non invariante di soggetti, perché esistono leggi 'singolari' e leggi 'plurali'. Senza una siffatta consapevolezza, che le ha portate ad appagarsi di probabilità statistiche e di valori medi, intere scienze oggi all'avanguardia non sarebbero mai esistite.
Spostare l'oggetto dell'osservazione da un singolo individuo a un insieme di individui significa cambiare canone di lettura. Per aver saputo guardare agli insiemi di individui Charles Darwin (1859) ha rinnovato la biologia, dimostrando che è attraverso le popolazioni che le specie evolvono, ed evolvono more statistico, giocando con la variabilità individuale: una variabilità essenziale, dovuta a eventi combinatori e casuali di cui Gregor Mendel (1866) ha colto gli algoritmi; e sono algoritmi statistici. Ma è pur vero che la sintesi di una pluralità, anche la sua riduzione a un valor medio, che annulla la variabilità, pone problemi di interpretazione circa la natura della variabilità stessa. E certo sarcasmo di Claude Bernard sul significato di una media di grandezze non trasferibili contiene un preciso avvertimento: che la media non trae la sua unica ragione scientifica di essere da un principio formale, ma presuppone l'assunzione critica dei valori mediati.
Il problema del 'come' si misura non è estraneo al problema del 'cosa' si misura. E la misura per la misura, se può talora sembrare un passo avanti nelle conoscenze, può essere, e talvolta è, la goffa mascheratura di un'assenza di idee, cui nessun mezzo automatico di calcolo può sopperire. Il pericolo di un ricorso irrazionale ai metodi quantitativi, di un fraintendimento della logica e del metodo della statistica, è sempre incombente. E tanto più oggi, che i linguaggi informatici rendono ogni elaborazione più facile, più immediata. Sembra essersi diffusa l'opinione che basti raccogliere una qualche casistica, introdurla in un calcolatore, praticarvi un programma di calcolo, esibire un po' di coefficienti, per essere scienziati sociali. È così che si effettuano tante analisi multivariate, suscitando reazioni non sempre immotivate contro gli 'eccessi del quantitativo'.
Scienza è sviluppo di ipotesi, è lotta col dubbio. Non è un semplice raccoglier dati, da cui trarre, come per magia, mediante regole formali, statistiche e non statistiche, una qualche trascendente verità. Una qualunque costante statistica - un indice di correlazione, ad esempio, in cui si può vedere una matematizzazione del canone milliano delle 'variazioni concomitanti' - è sempre e soltanto la misura di uno stato di fatto. Può suggerire un'ipotesi, avvalorare una tesi, contraddire una teoria; ma in quanto sia illuminata dallo spirito critico. La trappola delle fallacie logiche è sempre pronta a scattare. Con opportuna ironia è stato detto che calcolando automaticamente concordanze statistiche sui gemelli umani monozigoti si giungerebbe ad annoverare gli indumenti fra i caratteri trasmessi per via genetica. Ed è sempre attuale la storiella ottocentesca messa in giro da Thomas H. Huxley, secondo la quale doveva sussistere una relazione lineare di proporzionalità, nelle contee inglesi, tra la quantità di latte prodotto e il numero delle donne nubili, perché le mucche fanno molto latte se possono cibarsi di trifoglio, pianta impollinata dai bombi, dei cui nidi sono ghiottissimi i topi campagnoli, predati a loro volta dai gatti; e questi sono notoriamente protetti dalle zitelle....
È sempre un'idea a dare significato a un dato, coerenza a un calcolo, contenuto a uno schema formale. Ne è prova l'avventura scientifica di Francis Galton, il fondatore della scuola biometrica, giustamente annoverato tra i pionieri degli studi sulla correlazione e di quelli sul comportamento umano. Nel salto dalla metodologia alla fenomenologia, dalle covarianze statistiche alle determinanti fenomeniche, Galton incorse infatti in una fallacia logica, a proposito di una questione che va dalla biologia alla sociologia e alla psicologia: la questione, antica e nuova, dell'intreccio (e del distinguo) di fattori ereditari e di fattori ambientali. Come intendeva le correlazioni positive tra le dimensioni corporee di padri e figli alla stregua di prove dirette di un'eredità biologica (ma quelle covarianze avrebbero potuto provare anche la tesi opposta), così Galton (1889) vedeva nel concordare della collocazione sociale di ascendenti e discendenti un indizio di trasmissione ereditaria delle capacità, delle attitudini. Il genoma allora, prima e più che le condizioni al contorno, farebbe del figlio del barcaiolo un futuro barcaiolo e del figlio del re un futuro re? Ancora la sovrapposizione di due ordini di fattori, genetici e ambientali o, per dirla con Galton, di nature e nurture. Ancora la necessità di separare gli effetti di variabili che si confondono. Che è il problema dei problemi della ricerca sociale.
7. Statistica come canone di lettura
Nel sociale giocano componenti non sempre facilmente riducibili a paradigmi scientifici preesistenti. E non si può certo pretendere di trapiantare, sic et simpliciter, nelle scienze dell'uomo gli schemi concettuali della genetica o della termodinamica, nell'illusione di una facile sintesi interdisciplinare che ha senso solo se è confronto critico di modelli, di concetti; e tuttavia alcuni paradigmi naturalistici possono valere come schemi di riferimento (v. Simulazione, modelli di). Ogni società ha un suo assetto demografico, ogni assetto demografico ha una sua storia, naturale e sociale. Come una popolazione - che è il soggetto dell'evoluzione - cambia per il cambiare delle frequenze genotipiche, anche in ragione dell'idoneità adattativa degli individui e dei gruppi, così nel divenire sociale altri fattori si sovrappongono e fanno dell'umano una complessa intersezione di variabili naturali e non naturali. Sono l'etologia e la sociobiologia a ricordare che nelle azioni di un vivente si rivela anche il messaggio codificato nell'alfabeto degli acidi nucleici; ma le componenti extragenetiche sono tutt'altro che trascurabili. Ancora una volta le scienze naturali, con il distinguo tra 'genotipo' e 'fenotipo', offrono un paradigma di riferimento e fanno intendere la sterilità delle posizioni estreme: del 'genetismo' radicale come del radicale 'ambientalismo'.
Si parla, a questo proposito, di 'complessità del sociale', del conseguente 'ritardo storico' delle scienze sociali, dell'esigenza di una 'riduzione della complessità'. In questo senso, tutta una metodologia statistica è avanzata andando oltre i tradizionali schemi di correlazione, per trattare simultaneamente numerose variabili attraverso gli strumenti automatici di calcolo, così da ridurle, compattandole, ad alcune essenziali coordinate. Se l'osservare pluralità, sempre necessario per la conoscenza del fenomeno sociale, è diventato altrettanto necessario per la conoscenza dei fenomeni della natura, sembra lecito domandarsi quali idee possa suggerire alla ricerca sociale, intesa come ricerca dell'essere, la nuova filosofia naturale. Un interrogativo che risale a Herbert Spencer (1876), al suo rifarsi al paradigma darwiniano in un ardito tentativo di sintesi tra l'uomo naturale e l'uomo sociale; donde il 'darwinismo sociale': un tragico fraintendimento storicistico. A Spencer era sfuggita infatti l'essenza accidentalistica dell'evoluzione biologica, la sua natura profonda, non deterministica e non finalistica. Evoluzione altro non è che cambiamento delle frequenze statistiche di alleli e genotipi, nel giuoco alterno di caso e necessità, lungo le generazioni. Ne è prova la struttura probabilistica della genetica di popolazioni.
È difficile scorgere l'equazione in cui potrebbe essere scritto un possibile 'teorema fondamentale' della dinamica delle società, una sorta di legge statistica del mutevole trascorrere degli elementi sociali attraverso le generazioni. Non sono tuttavia da trascurare alcuni suggestivi spunti culturali diretti a una visione unitaria, o almeno interdisciplinare, di tutti i fenomeni naturali e sociali che si trasformano nel tempo: dalle aperture di Ervin Laszlo (1985) verso "[...] una teoria sistemica generale dell'evoluzione che valga tanto per gli atomi e le molecole del cosmo quanto per gli organismi viventi e le società umane della biosfera" alle teorie di Ilya Prigogine (1978) sui "sistemi lontani dall'equilibrio" entro "una storia intessuta dalla necessità delle leggi e dalla casualità delle fluttuazioni": una storia di sistemi che divengono su di una scala plurivoca di possibilità, tra momenti eversivi e momenti autocorrettivi, attuando e superando la complessità; una complessità ove l'accidentalità del singolo evento diventa essenziale all'irreversibilità dei processi. Ciò che invita alla ricerca delle regole del gioco comuni ai diversi modelli evolutivi. Delle regole e dei linguaggi. Forse non ha soltanto un significato episodico che il concetto di 'deriva genetica' - un evento biologico dovuto all'erraticità statistica dei piccoli numeri - abbia suggerito quello di 'deriva sociale', in un'immagine dell'evoluzione culturale ripresa dall'evoluzione naturale, al punto che l'insorgere, in quella, di una nuova idea viene intesa alla stregua dell'insorgere, in questa, di una mutazione. Certo, la trasmissione delle 'informazioni' di generazione in generazione risponde a processi assai differenti, ma qualche analogia modellistica è sempre possibile (nella prospettiva delineata da Luca Cavalli-Sforza, 1971).
Se Laszlo intende l'evoluzione biologica e l'evoluzione sociale quali "[...] aspetti di uno stesso processo fondamentale", Prigogine vede nelle equazioni che governano lo sviluppo delle popolazioni biologiche una "[...] nuova interdisciplinarità tra le scienze della natura e le scienze umane". Ipotesi suggestive. Non v'è dubbio che in qualche misura il paradigma evoluzionistico offra uno schema concettuale di riferimento alle scienze dell'uomo, in "stretta analogia - così Prigogine - con la cinetica chimica". Ma, nella vicenda sociale, le relazioni interindividuali (la comunicazione, la suggestione) insidiano ogni preteso equilibrio, in cui non sempre è da vedersi l'effetto d'insieme del comporsi stocastico di ineguaglianze individuali, ma piuttosto la conseguenza dell'uniformarsi delle azioni dei singoli. Quasi il tendenziale livellarsi delle velocità nella cinetica molecolare, ma con una differenza essenziale: nella termodinamica (quella termodinamica che Prigogine vede aperta - e così la chimica dei processi - all'incontro con le scienze umane) l'esito più probabile è assenza di movimento, è disordine entropico, è stasi; nella società, l'esito più probabile può essere invece una maggior dinamica, un movimento orientato e diretto. La risultante univoca collettiva non viene allora dal concorso di tante plurivocità individuali: è spesso la somma di tante univocità parallele, appagate dall'adeguarsi a simboli comuni, a comuni obiettivi. Che possono anche scaturire da una sorta di liberazione improvvisa dell'inconscio individuale, del suo farsi collettivo. E le stesse componenti casuali possono avere un effetto ora convergente ora divergente. I sommovimenti sociali, ad esempio, o anche soltanto le fluttuazioni di un mercato finanziario, non sembrano facilmente riconducibili ai teoremi che reggono tanta fenomenologia fisica e non fisica.
La mutuazione di paradigmi, sempre opportuna, può essere allora fuorviante. Anche perché, nel contesto umano, i quadri etici di riferimento - sempre incombenti sulle immagini scientifiche del mondo - sono quanto mai coinvolgenti, e all'analisi dell'essere spesso si sovrappone la postulazione di un dover essere. Scriveva Pareto (v., 1916, p. 76): "Si possono facilmente considerare con l'indifferenza scettica della scienza sperimentale le formiche; è molto più difficile considerare allo stesso modo gli uomini". Tuttavia, l'avvicinarsi e il confrontarsi, nell'intreccio evoluzionistico di natura e storia, delle ricerche sull'individuo naturale e sull'individuo sociale lasciano intravedere le premesse di una possibile ϰοινή metodologica sul tema dell'uomo, capace di superare certa voluta incomunicabilità tra gli addetti ai diversi settori del pensiero. Essi sono storicamente passati da fasi di forte attrazione a fasi di sdegnosa repulsione, alla maniera - anche questo è un modello - dei porcospini di Schopenhauer, sospinti dal freddo ad accostarsi l'un l'altro, ma subito costretti ad allontanarsi per non pungersi a vicenda e perciò condannati all'eterna ricerca di un equilibrio impossibile.
Superato il tradizionale steccato tra natura e storia, tra scienze della materia e scienze della vita, il paradigma statistico sembra apprestare i fondamenti di una intersezione metodologica tra le scienze positive. Il sogno di Laplace, di Condorcet, di Quételet, di Spencer, di Pareto, di Weber, di Neurath, di Carnap che ancora ritorna. Eppure, certe scienze sociali - che tanto s'avvalgono, e tanto disinvoltamente, di non pochi strumenti formali della statistica - appaiono adesso più incerte. Quasi che il tramonto del determinismo classico ne abbia ridotta l'aspirazione scientifica, spingendole in una crisi d'identità in cui sembra esprimersi il rimpianto di un paradigma perduto.
Se la filosofia naturale ispirata al modello meccanicistico e retta da leggi quantitative assolute e inderogabili escludeva dal sapere scientifico le discipline sociali - e queste le avevano tentate tutte pur di imitare quella gnoseologia - la scienza che ha sciolto i lacci del più rigido determinismo sembra andare metodologicamente incontro alla ricerca sull'uomo: una scienza naturale in cui è entrato il tempo, il tempo del divenire; una scienza di pluralità discrete, di cui si possono addurre solo le proprietà statistiche e prevedere, non i singoli eventi, bensì le loro probabilità. Ed è tutto ciò che questa scienza può offrire.
(V. anche Metodo e tecniche nelle scienze sociali; Previsione; Probabilità; Scienze sociali; Simulazione, modelli di).
Benzécri, J.P., L'analyse des données, t. II, L'analyse des correspondences, Paris 1973.
Blalock, H.M., Social statistic, New York 1979 (tr. it.: Statistica per la ricerca sociale, Bologna 1969).
Boltzmann, L., Vorlesungen über Gastheorie, Leipzig 1895.
Bowley, A.L., The precision of measurements estimated from samples, in "Metron", 1923, n. 2-3.
Castellano, V. (a cura di), La statistica come metodologia delle scienze sociali, Roma 1967.
Cavalli-Sforza, L.L., Similarities and dissimilarities of sociocultural and biological evolution, in Mathematics in the archaeological and historical sciences, Edinburgh 1971.
Dagum, C., A new model of personal income distribution: specification and estimation, in "Économie appliquée", 1977, XXX, 3.
De Helguero, F., Per la risoluzione delle curve dimorfiche, Accademia Nazionale dei Lincei, Roma 1906; rist. in Scritti vari, Padova 1922.
Einstein, A., Infeld, L., The evolution of physics, Princeton, N.J., 1951 (tr. it.: L'evoluzione della fisica, Torino 1953).
Fisher, R.A., On the mathematical foundations of theoretical statistics, in "Philosophical transactions of the Royal Society of London", 1922, CCXXII.
Fisher, R.A., Theory of statistical estimation, in "Proceedings of the Cambridge Philosophical Society", 1925, XXII.
Fisher, R.A., Statistical methods for research workers, Edinburgh 1944 (tr. it.: Metodi statistici ad uso dei ricercatori, Torino 1948).
Fisher, R.A., The design of experiments, Edinburgh 1935.
Fisher, R.A., The use of multiple measurements in taxonomic problems, in "Annals of eugenics", 1936, VII.
Fisher, R.A., Uncertain inference, in "Proceedings of the American Academy of Arts and Sciences", 1936, LXXI.
Fisher, R.A., Statistical methods and scientific induction, in "Journal of the Royal Statistic Society", B, 1955, XVII.
Fisher, R.A., La probabilità matematica nelle scienze naturali, in "La scuola in azione", 1962, XX.
Gini, C., Sulla misura della concentrazione e della variabilità dei caratteri, Istituto Veneto di Scienze, Lettere ed Arti, LXXIII, Padova 1914.
Gini, C., Intorno alle basi logiche e alla portata gnoseologica del metodo statistico, in "Statistica", 1946, nn. 1-4.
Hahn, H., Neurath, O., Carnap, R., Wissenschaftliche Weltauffassung. Der Wiener Kreis, Wien 1929 (tr. it.: La concezione scientifica del mondo. Il Circolo di Vienna, Roma-Bari 1979).
Hotelling, H., Analysis of a complex of statistical variables into principal components, in "Journal of psychology", 1933, XXIV.
Kendall, M.G., Statistics: theory and practice, London 1984.
Kish, L., Survey sampling, New York 1965.
Kotz, J., Johnson, N.L. (a cura di), Encyclopedia of statistical sciences, 9 voll., New York 1982-1988.
Laszlo, E., Evolution, New York 1985 (tr. it.: Evoluzione, Milano 1986).
Lazarsfeld, P.F., Mathematical thinking in the social sciences, New York 1969.
Lorenz, M.O., Methods for measuring concentration of wealth, in "Journal of the American Statistical Association", 1905, LXX.
Maxwell, J.C., Illustration of the dynamical theory of gases (1860), in The scientific paper of James Clerk Maxwell, vol.I, Cambridge 1890.
Neyman, J., On the two different aspects of the representative method: the method of stratified sampling and the method of purposive selection, in "Journal of the Royal Statistical Society", 1934, XCVII.
Pareto, V., Cours d'économie politique, libro II, Lausanne 1896 (tr. it.: Corso d'economia politica, Torino 1949).
Pareto, V., Trattato di sociologia generale, Firenze 1916; nuova ed., Milano 1964.
Poincaré, H., Science et méthode, Paris 1914 (tr. it.: Scienza e metodo, Torino 1997).
Prigogine, I., Non-equilibrium statistical mechanics, New York 1962.
Prigogine, I., From being to becoming. Time and complexity in the physical sciences, New York 1978 (tr. it.: Dall'essere al divenire. Tempo e complessità nelle scienze fisiche, Torino 1986).
Prigogine, I., Stengers, I., La nouvelle alliance, Paris 1979 (tr. it.: La nuova alleanza, Torino 1981).
Quételet, A.L., Sur l'homme et sur le développement de ses facultés. Essai de physique sociale, Bruxelles 1835.
Quételet, A.L., Recherches statistiques, Bruxelles 1844.
Quételet, A.L.,Lettres sur la théorie des probabilités appliquées aux sciences morales et politiques, Bruxelles 1846.
Quételet, A.L., Physique sociale, t. I, Bruxelles-Paris-Saint-Pétersbourg 1869.
Quételet, A.L., Anthropométrie, Bruxelles-Leipzig-Gand 1871.
Rao, C.R., The use and interpretation of principal component analysis in applied research, in "Sankhya", 1964, XXVI.
Russell, B., The scientific outlook, London 1931 (tr. it.: La visione scientifica del mondo, Bari 1934).
Russell, B., Human knowledge. Its scope and limits, New York 1948 (tr. it.: La conoscenza umana. Le sue possibilità e i suoi limiti, Milano 1963).
Scardovi, I., Statistica come metodologia delle scienze naturali, Centro linceo interdisciplinare di Scienze matematiche, quaderno n. 37, Accademia Nazionale dei Lincei, Roma 1977.
Scardovi, I., Fondements statistiques des sciences sociales, in "Epistemologia", 1982, V (n. speciale).
Skinner, B.F. e altri, Problems of scientific revolution, progress and obstacles in the sciences, London 1975 (tr. it.: Lo scosceso e difficile sentiero delle scienze del comportamento, in Rivoluzioni scientifiche e rivoluzioni ideologiche, a cura di R. Harré, Roma 1977).
Spearman, C., The proof and measurement of association between two things, in "American journal of psychology", 1904, XV.
Theil, H., Economics and information theory, Amsterdam 1967.
Thurstone, L.L., Multiple factor analysis, Chicago 1947.
Volterra, V., Sui tentativi di applicazione delle matematiche alle scienze biologiche e sociali, in "Archivio di fisiologia", 1906, III.
Yule, G.U., Kendall, M.G., An introduction to the theory of statistics, London 1965.