NORMAN CAMPBELL, PHYSICS, THE ELEMENTS, CH.VII

16 Dic

Frank_Plumpton_RamseyPropongo la traduzione di un appunto di Frank Ramsey riguardante le ipotesi sul caso e la probabilità di Norman Robert Campbell, un fisico del Trinity College di Cambridge.  Si tratta di appunti da mettere in relazione con lo studio della teoria della probabilità che stava costruendo. La nota è stata pubblicata, in lingua originale, dalla prof.ssa Maria Carla Galavotti in Notes on Philosophy, Probability and Mathematics ed. Bibliopolis. Al termine riporto il testo in inglese.

NORMAN CAMPBELL, FISICA, GLI ELEMENTI, CAPITOLO VII 1

1 Cambridge: Cambridge University Press, 1920 .

Caso e Probabilità

( 1) Il caso è l’assenza di una legge, in senso oggettivo, ma = assenza di qualche legge non di qualsiasi legge . ∴ l’evento è una possibilità da un punto di vista (piove il 15 giugno), ma non da un altro (piove al centro di anticiclone).

( 2 ) Il caso non implica completa ignoranza.

( 3 ) La probabilità è un numero che misura in qualche modo il grado della nostra conoscenza .

( 4 ) La probabilità non può essere definita da casi ugualmente probabili, perché non sarebbe come estrarre una carta dal mazzo di piquet e dal mazzo di bridge.

( 5 ) La probabilità è sperimentale, ad esempio nel caso di cui sopra. Essa afferma un collegamento tra esperimento e risultato, non tra quelli particolari, ma tra insiemi di questo tipo.

( 6 ) Gli eventi sono equiprobabili se capitano lo stesso numero di volte in un gran numero di esperimenti; ma come rendere questo preciso?  Il rapporto tende a 1 se il numero di esperimenti tende all’infinito.

(7) Questa definizione permette una dimostrazione sperimentale in alcuni casi in cui gli eventi sono ugualmente probabili. [ Questo è semplicemente un errore ] Ma noi non saremo mai in grado di provare che gli eventi non sono ugualmente probabili. Questo, tuttavia, è inevitabilmente associato con il significato di caso, che rende possibile qualsiasi sequenza.

( 8 ) Se questo rende inutile il concetto di probabilità dipende se effettivamente si verificano sequenze incoerenti.

La scienza è concepita per operare con i fatti come sono, non come potrebbero essere.

( 9 ) analoga definizione di probabilità in generale, addizione ecc.

( ? Identiche, tranne che per piccoli errori, secondo von Mises) .

( 10 ) Difficoltà di indipendenza. Nella sequenza per cui la probabilità mette in relazione eventi deve o essere richiesto che siano indipendenti o meno. Se lo sono, per quanto non possiamo mai sapere se sono indipendenti, la probabilità è inutile; se non sono tenuti ad essere indipendenti, ammettiamo una probabilità per gli oggetti sottoposti ad una legge.

ad esempio se si verificano testa, o croce alternativamente dobbiamo sempre sapere che si sta verificando proprio una probabilità = 1/2 .

( (Aggiunto in margine : ) ) nessuna difficoltà: probabilità in relazione con le prove.

( 11 ) Probabilità di cause = grado di conoscenza; non è derivata dalla frequenza, ma una frazione convenzionalmente costruita.

( 12 ) Abbiamo noi un grado di conoscenza di un evento probabile, o nessuna conoscenza di 1 singolo evento, ma solo di un insieme di eventi? Da decidere attraverso l’osservazione di azioni, che è spiegabile sulla seconda ipotesi. [ Non proprio tanti non ricorrenti probabili eventi; ma secondo la sua definizione se non ricorrenti non c’è probabilità? ].

Ma abbiamo davvero un grado di conoscenza. Che cosa è ? = sorpresa = disagio. Perché non ci rende tranquilli se testa compare 5 volte nel gioco? Perché significa che per ripristinare la nostra nozione di probabilità dobbiamo fare tanti esperimenti, in modo da  verificare che questo succede solo 1/32 di volte. Perché dovremmo supporre che il risultato della prova sarà tale da risparmiarci il disagio? Questa è una domanda profonda. [ Non lo è; per la sua definizione di grado di conoscenza è così; evidentemente si tratta di una sciocca definizione. Anche questo non è ciò che noi supponiamo. Non siamo ( in generale) sorpresi per essere stati sorpresi, ma per l’evento.]

(13) Le coincidenze non si verificano. Nel dire questo rimuoveremo le difficoltà e ci permetterà di determinare le probabilità sperimentalmente. Ma se una coincidenza rappresenta un evento molto improbabile, è auto-contraddittorio dire che non accade, come dire che ogni risultato di molte prove sia una coincidenza. Un punto di vista alternativo è che una coincidenza è un evento improbabile per cui la probabilità a priori di una qualche causa diversa da quella contemplata è finita e importante.

( 14 ) Ma questa spiegazione è circolare. La distinzione tra coincidenze che non accadono mai e che sebbene improbabili possono verificarsi sottende l’intero calcolo delle probabilità, e deve essere fatto prima che qualsiasi stima di probabilità venga intrapresa.

( ( Aggiunta in margine : )) questo è un punto cruciale. Dubito che sia la sua conclusione.

( 15) Ci deve essere una teoria così come le leggi della probabilità.

Probabilità di Poincaré = grande risultato dovuto ad una piccola causa. Per il Principio di Ragion Sufficiente supponiamo che esistano “realmente” differenze tra casi non osservabilmente diversi.

( 16 ) Ma questo solo sposta la difficoltà, la distribuzione delle cause deve essere il caso, o una distribuzione casuale.

( 17 ) Una distribuzione casuale è senza una legge definibile, ∴ come se venisse prodotta da una volizione discrezionale. Meccanismi complessi producono generalmente risultati casuali. Il meccanismo per la roulette può produrre sequenze ordinate troppo complesse da comprendere = casuale. Ma non sempre possiamo supporre che le distribuzioni casuali siano originate così, spesso le accettiamo come fondamenti (in analogia con la volontà umana.)

( (Aggiunto nel margine : )) Penso che questo sia solo in parte giusto. cfr. Fisher sul casuale.

( 18 ) Definizione di probabilità da casi ugualmente possibili applicabile solo a quelli in cui il caso si presenta sempre in questo modo.

( 19 ) Si potrebbe dire nessuna coincidenze senza contraddizione se la teoria è che si verifica una distribuzione casuale; la coincidenza è una cosa con una regola comprensibile ∴ non è casuale.

( (Aggiunto in margine : ) ) ?

(20) Ma allora non possiamo associare la probabilità con il grado di conoscenza, perché sappiamo che le coincidenze non si verificano, ma non altri eventi ugualmente probabili.

( (Aggiunto in margine : ) ) ?

( 21 ) Possiamo ora sapere che gli eventi sono indipendenti, perché una legge troppo complicata da riconoscere non conta.

( 22 ) La nostra teoria deve ridurre gli eventi casuali non ugualmente probabili alle combinazioni di quelli egualmente probabili. Così una distribuzione di segni sulla carta deve essere perfettamente casuale, come se fosse fatta dalla pioggia o dalla combinazione di qualcosa di regolato (punto mirante a, deflessione del vento ) con variazioni casuali.

( 23) Un elevato numero di osservazioni sono utili solo in relazione al caso.

E questo è il testo in lingua originale:

NORMAN CAMPBELL, PHYSICS, THE ELEMENTS, CH.VII 1

1 Cambridge: Cambridge University Press, 1920.

Chance and Probability

(1) Chance is the absence of law, in objective sense, but = absence of some law not of any law. ∴  event is chance from one point of view (raining on June 15), but not from another (raining at the centre of anticyclone).

(2) Chance does not imply complete ignorance.

(3) Probability is a number measuring in some manner the degree of our knowledge.

(4) Probability cannot be defined by equally probable cases, for there may be no such as in drawing card from piquet pack and bridge pack.

(5) Probability is experimental, e.g. in above case. It asserts a connection between trial and result, not between particular ones, but between collections of such.

(6) Events are equally probable if they happen the same number of times in a very large number of trials; but how to make this precise? The ratio tends to 1 as the number tends to infinity.

(7) This definition will permit an experimental demonstration in certain cases that events are equally probable. [This is a mistake simply] But we shall never be able to prove that events are not equally probable. This, however, is inevitably associated with the meaning of chance, which renders any sequence possible.

(8) Whether this renders useless the conception of probability depends on whether inconsistent sequences actually occur.

Science is framed to deal with the facts as they are not as they might be.

(9) similar definition of probability in general, addition etc.

(? identical, except for minor errors, with von Mises).

(10) Difficulty of independence. In the sequence to which the probability relates the events must either be required to be independent or not. If they are, as we can never know they are independent, probability is useless; if they are not required to be independent, we allow a probability for things governed by law.

e.g. if heads, tails alternately we should always know which is coming yet probability =1/2.

((Added in margin: )) no difficulty: probability relative to evidence.

(11) Probability of causes = degree of knowledge; not derived from frequency, but conventionally constructed fraction.

(12) Have we degree of knowledge of probable event, or no knowledge of 1 individual event but only of collection? To be decided by observation of actions, which is explicable on latter hypothesis. [Not really many non-recurrent probable events; but according to his definition if non-recurrent no probability?].

But we really have degree of knowledge. What is this? = surprise = discomfort. Why does it make us uncomfortable if heads turns up 5 times running? Because it means that to restore our notion of the probability we must do so many experiments, to check that this only happens I/32 times. Why should we assume that the result of the trial will be such as to spare us discomfort? This is a profound question. [It is not; by his definition of degree of knowledge it is so; clearly it is a silly definition. Also this is not what we assume. We are not (in general) surprised at being surprised but at the event]

(13) Coincidences do not happen. To say this will remove the difficulties and enable us to determine probabilities experimentally. But if coincidence means very improbable event, it is self-contradictory to say they do not happen, as any result of many trials is a coincidence. Alternative view is that a coincidence is an improbable event for which the a priori probability of some cause other than that contemplated is finite and considerable.

(14) But this explanation is circular. The distinction between coincidences which never happen and which though improbable may happen underlies the whole calculus of probability, and must be made before any estimates of probability are undertaken.

((Added in margin: )) this is a crux. I doubt his conclusion.

(15) There must be a theory as well as laws of chance.

Poincaré’s chance = large result due to small cause. By Principle of Sufficient Reason we suppose they are “really” differences between cases not observably different.

(16) But this only pushes the difficulty back, distribution of causes must be chance, or random distribution.

(17) A random distribution is without ascertainable law, ∴ such as would be produced by arbitrary volition. Complicated mechanisms generally produce random results. Mechanism for roulette would produce ordered sequence too complicated to grasp = random. But we do not always suppose random distributions to originate thus, we often accept them as ultimate (analogy with human will.)

((Added in margin: )) I think this is only partly right. cfr. Fisher on random.

(18) Definition of probability by equally possible cases applicable to the ones in which chance always arises in this way.

(19) We can say no coincidences without contradiction if theory is that a random distribution occurs; a coincidence is one with comprehensible law ∴ not random.

((Added in margin: ))?

(20) But then we cannot associate probability and degree of knowledge, for we know coincidences do not occur, but not other equally probable events.

((Added in margin: )) ?

(21) We can now know events are independent, for a law too complicated to see does not count.

(22) Our theory must reduce chance events not equally probable to combinations of those equally probable. Thus distribution of marks on paper must be perfectly random as if made by rain or combination of something regular (point aimed at, wind deflection) with random variations.

(23) Large numbers of observations are only useful in connection with chance.

Annunci

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...

%d blogger hanno fatto clic su Mi Piace per questo: