Physionary - a scientific version of Pictionary

Physionary - a scientific version of Pictionary

N. Poljak, A. Bosilj, S. Brzaj, J. Dragovic, T. Dubcek, F. Erhardt, M. Jercic
Physics department, University of Zagreb

Abstract. We describe a variant of the popular game “Pictionary” based on the terms used in elementary and high school physics. We believe that the drawing of physical terms helps students develop a deeper understanding of physical concepts behind them, as well as apply them in everyday situations.

1. Introduction

The Croatian Physical Society organizes the annual Summer school for young physicists [1], intended to reward elementary and high school students for their accomplishments on the national physics competitions. The schools typically consists of half-day lectures combined with workshops, experiments or games that take place during leisure hours. For the last three editions of the summer schools, we developed a variant of the popular game ”Pictionary” as a small competition for the students. “Physionary”, as we named the variant, has proven to be very successful in entertaining the students, not only during the evenings intended for the competition, but also during the rest of leisure time.

2. Game description

“Physionary” is a game loosely derived and expanded from the commercially-distributed “Pictionary”. A similar game was developed earlier for University biology students [2], however, we expanded further on the game since we found it beneficial to do so.

The students are divided into groups based on their age and are given a number of cards, each containing 6 terms from elementary or high school physics. The terms are taken from indices of physics curricula or physics manuals and divided into 5 sets of cards, one for each high school grade and one for elementary school grades. A dice is thrown to randomly select the ordinal number of the term on the card. A one minute timer is started and one of the students from each group is required to draw the term found on his/her card, while the rest of the group has to guess what term it is. If the team accomplishes this within the given time allotment, they receive a point. Several rounds are played this way before the pace of the game is then made faster by decreasing the available time for drawing. After a predetermined number of rounds played in this manner, the second phase of the game begins. In this phase, the students don’t draw the terms but instead try to “act out” the term given on their cards, as it is usually done in charades. This is also done within a given time allotment, typically set to a minute.

This game turned out not to be only entertaining, but also highly educational. Sometimes, a specific term may not be recognized by some of the members of a certain group. However, we noticed that the said term is quickly taken in by those members, as evidenced by their future recognition of that, as well as similar terms. Once the students start to communicate concepts pictorially, they move from their definitions and try to use everyday examples to convey them to their group. We have also noticed that a sense of connection between various terms is formed, since the students find it beneficial to explain a new term with the help of terms that they have already drawn on paper - they simply circle the term that was already guessed by the group. Finally, the students were often found drawing graphs and diagrams, which is a skill they need to develop in physics, but are often not motivated to do so.

3. Conclusion

We have expanded on the known popular party games to
create an effective and entertaining physics learning tool.
The skills developed during game play seem to be beneficial
to the students and the terms they are required to draw or
act out are taken from their curricula. The students seem
to develop another important skill during the game - using
simple physical concepts in everyday situations, which is a
skill they are most often found lacking. In what follows, we
present a selection of 10 terms (out of 850) from each of the
5 sets of cards. We have limited the selection to 10 terms
since we expect that different countries will have differing
curricula, so we thought it best that everyone interested
made their own sets of cards. Figure 1: An example of a

playing card.


[1] skola/
[2] Kathleen A. Parson, John S. Miles, “Bio-Pictionary – a scientific party game which helps to develop pictorial communication skills”, Journal of Biological Education, 28:1, 17-18, DOI:10.1080/00219266.1994.9655358


1st grade

2nd grade

3rd grade

4th grade

heat insulator surface area power mass sliding friction Solar energy pulley molecule cavity electricity

joule frequency dynamics buoyancy unit
fluid projectile motion cosmic speed energy Galileo

diffusion capacitor inductivity linear expansion Lorentz force work
ideal gas insulator interaction isobar

diffraction rainbow standing wave intensity sound rotation length contraction phase
light guide

plasma atom antiparticle semiconductor fractal boson
red giant mass defect butterfly effect quark

Table 1. A sample from the terms given on the “Physionary” cards, sorted in 5 classes according to students’ grade.

Let’s have a coffee with the Standard Model of particle physics

Let's have a coffee with the Standard Model of particle physics!

Julia Woithe1,2Gerfried J Wiener1,3 and Frederik F Van der Veken1

Published 30 March 2017 
Physics EducationVolume 52Number 3 
Focus on Nuclear and Particle Physics

 Article PDF


The Standard Model of particle physics is one of the most successful theories in physics and describes the fundamental interactions between elementary particles. It is encoded in a compact description, the so-called 'Lagrangian', which even fits on t-shirts and coffee mugs. This mathematical formulation, however, is complex and only rarely makes it into the physics classroom. Therefore, to support high school teachers in their challenging endeavour of introducing particle physics in the classroom, we provide a qualitative explanation of the terms of the Lagrangian and discuss their interpretation based on associated Feynman diagrams.

Export citation and abstract BibTeX RIS

Original content from this work may be used under the terms of the Creative Commons Attribution 3.0 licence. Any further distribution of this work must maintain attribution to the author(s) and the title of the work, journal citation and DOI.

1. Introduction

The Standard Model of particle physics is the most important achievement of high energy physics to date. This highly elegant theory sorts elementary particles according to their respective charges and describes how they interact through fundamental interactions. In this context, a charge is a property of an elementary particle that defines the fundamental interaction by which it is influenced. We then say that the corresponding interaction particle 'couples' to a certain charge. For example, gluons, the interaction particles of the strong interaction, couple to colour-charged particles. Of the four fundamental interactions in nature, all except gravity are described by the Standard Model of particle physics: particles with an electric charge are influenced by the electromagnetic interaction (quantum electrodynamics, or QED for short), particles with a weak charge are influenced by the weak interaction (quantum flavour dynamics or QFD), and those with a colour charge are influenced by the strong interaction (quantum chromodynamics or QCD). Contrary to the fundamental interactions, the Brout–Englert–Higgs (BEH) field acts in a special way. Because it is a scalar field, it induces spontaneous symmetry-breaking, which in turn gives mass to all particles with which it interacts (this is commonly called the Higgs mechanism). In addition, the Higgs particle (H) couples to any other particle which has mass (including itself).

Interactions are mediated by their respective interaction particles: photons (γ) for the electromagnetic interaction, the weak bosons (WW+ , and Z0) for the weak interaction, and gluons (g) for the strong interaction. Furthermore, an elementary particle can be influenced by more than one fundamental interaction, in which case it has several charges (see figure 1). For example, due to its electric and weak charges, a muon is influenced both by the electromagnetic interaction and the weak interaction.

Figure 1.

Figure 1. Matter particles can be divided into three groups: quarks (q) and antiquarks ($\bar{q}$ ); electrically charged leptons ($\ell $ ) and antileptons ($\bar{\ell}$ ); neutrinos (ν) and antineutrinos ($\bar{\nu}$ ). Gluons (g) couple to colour charge, which only quarks, antiquarks, and gluons themselves, have. Photons (γ) couple to electric charge, which is found in (anti)quarks and electrically charged (anti)leptons. The weak bosons (WW+ , Z0) couple to the weak charge, which all matter particles have. Weak bosons can also interact with the photon (but this is a pure weak interaction, not an electromagnetic one). And finally, the Brout–Englert–Higgs field interacts with particles that have mass (all particles except the gluon and the photon).

 Standard image High-resolution image Export PowerPoint slide

The development of the Standard Model of particle physics started in the early 1970s and has so far withstood every experimental test. The latest success was the verification of the Brout–Englert–Higgs field by ATLAS and CMS at CERN's Large Hadron Collider in 2012. Both experiments successfully detected the quantised excitation of the BEH field—the so-called Higgs boson. This confirmed the Higgs mechanism, which associates elementary particles with their respective mass.

One might think that, given this great success story, the particle physics community is happy and content. But, as a matter of fact, the exact opposite is the case! While the Standard Model of particle physics provides a unique and elegant description of fundamental interactions between elementary particles, it is assumed that this quantum field theory is only part of a broader theory. Indeed, the Standard Model of particle physics describes only about 5% of the universe. It does not explain dark matter, which accounts for approximately 25% of the universe—not to speak of dark energy, which supposedly adds the remaining 70% of the universe. Their description can only be achieved by theories which go beyond the Standard Model of particle physics. Hence, any signs of irregularities between the predictions of the Standard Model of particle physics and experimental results would spark tremendous excitement. After all, this would enable the physics community to update and modify the current description of nature.

2. The Lagrangian

The mathematical formulation of the Standard Model of particle physics is complex. However, all information is encoded in a compact description—the so-called 'Lagrangian'. Nonetheless, this 'compact' formulation still fills several pages [1]. That is why an ultra-short, four-line version of the Lagrangian is also commonly shown. This particular formula draws a lot of attention and everyone who visits CERN will come across it at some point. For example, the CERN gift shop sells t-shirts and coffee mugs (see figure 2) featuring this four-line version of the Lagrangian. This can be especially challenging for physics teachers, who might then be asked by interested students to explain the meaning and the physics behind the Lagrangian. Therefore, we want to give a qualitative description of the individual terms of the Lagrangian, explain the fundamental processes behind them, and associate them to their respective Feynman diagrams.

Figure 2.

Figure 2. Lagrangian on a coffee mug.

 Standard image High-resolution image Export PowerPoint slide

Feynman diagrams are pictorial representations of the underlying mathematical expressions describing particle interactions. Even though particle physicists will use a set of 'Feynman rules' to translate a diagram into a mathematical expression, the diagram on its own is a useful tool to visualise and understand what is happening in a certain interaction without the need for mathematics. Every line in a Feynman diagram represents a particle, with different styles of line for the various types of particles. In this article, we additionally use different colours to indicate the associated interactions (see figures 1 and 3). Thus, a straight black line with an arrow denotes a matter particle, a wavy yellow line represents either a photon or a weak boson, a coiled green line corresponds to a gluon, and a dashed blue line indicates a Higgs boson. The time axis of a Feynman diagram is often oriented horizontally. However, the reading direction is only important for the physical interpretation, since all vertices can be rotated arbitrarily. Hereafter, we will read all Feynman diagrams from left to right with a horizontal time axis: lines starting on the left represent particles present before the interaction, and lines ending on the right represent particles present after the interaction. The arrow for matter particle lines should not be mistaken as an indicator of the direction of movement, since it only indicates whether the line belongs to a particle (with an arrow pointing to the right) or an anti-particle (with an arrow pointing to the left). Every vertex, where three or four lines meet, represents an interaction between particles. There are different possible vertices for QED, QFD, QCD, and BEH interactions, and these form the elementary building blocks of a Feynman diagram. In addition, Feynman diagrams are 'flexible': lines should not be understood as rigid, but as a combination of all possible paths a particle can take. Therefore, both individual lines and Feynman diagrams as a whole can be freely rotated.

Figure 3.

Figure 3. Some examples of Feynman diagrams that are included in $-\frac{1}{4}\,{{F}_{\mu \nu}}{{F}^{\mu \nu}}$ : gluon–gluon-interaction (3-gluon vertex and 4-gluon vertex), weak–weak interaction, and weak-photon interaction.

 Standard image High-resolution image Export PowerPoint slide

3. The elements of the Lagrangian

The Standard Model of particle physics is a quantum field theory. Therefore, its fundamental elements are quantum fields and the excitations of these fields are identified as particles. For example, the quantised excitation of the electron field is interpreted as an electron. From our viewpoint, it is not only permissible, but even advisable to speak directly of elementary particles instead of field excitations when discussing basic principles of particle physics qualitatively in high school.

A word of warning: as mentioned before, the Lagrangian is an extremely compact notation. Theoretical particle physicists normally know when to sum over which indices, what different abbreviations and derivatives mean, and when to consider each of the fundamental interactions. In the physics classroom, however, it is very difficult to achieve a deep-level understanding because the required mathematics skills go far beyond high-school level. Hence, we will only treat the ultra-short Lagrangian in figure 2 on a term-by-term basis, without detailing how different fields are combined inside these terms.

3.1. What does the $\mathcal{L}$  stand for?

$\mathcal{L}$  stands for the Lagrangian density, which is the density of the Lagrangian function L in a differential volume element. In other words, $\mathcal{L}$  is defined such that the Lagrangian L is the integral over space of the density: $L={\int}^{}{{\text{d}}^{3}}x~\mathcal{L}$ . In 1788, Joseph–Louis Lagrange introduced Lagrangian mechanics as a reformulation of classical mechanics. It allows the description of the dynamics of a given classical system using only one (scalar) function L  =  T  −  V, where T is the kinetic energy and V the potential energy of the system. The Lagrangian is used together with the principle of least action to obtain the equations of motion of that system in a very elegant way.

When handling quantum fields, instead of the discrete particles of classical mechanics, the Lagrangian density describes the kinematics and dynamics of the quantum system. Indeed, the Lagrangian density of quantum field theory can be compared to the Lagrangian function of classical mechanics. Hence, it is common to refer to $\mathcal{L}$  simply as 'the Lagrangian'.

3.2. Term 1: $-\frac{1}{4}\,{{F}_{\mu \nu}}{{F}^{\mu \nu}}$

This term is the scalar product of the field strength tensor ${{F}_{\mu \nu}}$  containing the mathematical encoding of all interaction particles except the Higgs boson, where μ and ν are Lorentz indices representing the spacetime components4. It contains the necessary formulation for these particles to even exist, and describes how they interact with each other. The contents differ depending on the properties of the interaction particles. For example, photons, the interaction particles of the electromagnetic interaction, cannot interact with each other, because they have no electric charge. Therefore, the contribution of the electromagnetic interaction consists only of a kinetic term, the basis for the existence of free photons. The description of gluons and the weak bosons also includes interaction terms in addition to the kinetic terms. Gluons, for example, are colour-charged themselves and can therefore also interact with each other (see figure 3). This leads to an exciting consequence: the Standard Model of particle physics predicts the existence of bound states consisting only of gluons, so-called 'glueballs'. However, no experiment has detected glueballs thus far.

3.3. Term 2: $\text{i}\bar{\psi}{\not D}\psi $

This term describes how interaction particles interact with matter particles. The fields ψ and $\bar{\psi}$ describe (anti)quarks and (anti)leptons5. The bar over $\bar{\psi}$  means that the corresponding vector must be transposed and complex-conjugated; a technical trick to ensure that the Lagrangian density remains scalar and real. ${\not D}$  is the so-called covariant derivative, featuring all the interaction particles (except the Higgs), but this time without self-interactions.

The beauty of this term is that it contains the description of the electromagnetic, weak, and strong interactions. Indeed, while all three fundamental interactions are different, the basic vertices by which they can be visualised look quite similar. We will start by discussing the most important interaction of our daily lives, the electromagnetic interaction. Here, pair production or annihilation of electrons and positrons, and the absorption or emission of photons by electrons, are prominent examples. All four of these processes can be represented using Feynman diagrams with the same basic vertex. For example, the left part of figure 4(a) shows the annihilation of an electron and a positron (remember that we use a reading direction from left to right). The next diagram is produced by rotating the first diagram by 180°, and is now a representation of pair production. Rotating the vertex further, we arrive at the third diagram, which describes the absorption of a photon by an electron. Last, the fourth permutation of the vertex gives the diagram for photon emission, also known as 'Bremsstrahlung'.

Figure 4.

Figure 4. Basic vertices of the electromagnetic interaction (a), strong interaction (b), and weak interaction (c). From left to right: examples of annihilation, pair production, absorption, and emission.

 Standard image High-resolution image Export PowerPoint slide

If we now look at the basic vertex of the strong interaction (see figure 4(b)), we notice that it looks very similar to the vertex of the electromagnetic interaction. For example, an anti-quark and a corresponding quark transforming into a gluon can be described as an annihilation process. In the reverse reading direction, this process can also be interpreted as pair creation, where a gluon transforms into a quark and an associated anti-quark. Additionally, by rotating the vertex further, we obtain the Feynman diagrams for gluon absorption and gluon emission.

Last but not least, the transformation processes of the weak interaction can be illustrated in a similar way as well (figure 4(c)). Again, depending on the orientation, the example represents annihilation or pair production of an electron and an anti-electron-neutrino, and absorption or emission of a Wboson. The weak interaction differs from the electromagnetic and the strong interactions in that it transforms one matter particle into another, for example an electron into an electron-neutrino and vice versa. We consider processes of the weak interaction involving a W boson to be particularly interesting for introduction in the classroom. For example, the transformation of a down-quark into an up-quark by emission of a virtual W boson, which itself transforms into an electron and an anti-electron-neutrino: ${{n}^{0}}\to {{p}^{+}}+{{e}^{-}}+\overline{{{\nu}_{e}}}$  is already part of many physics curricula [24] (see figure 5). In many physics textbooks this process is called 'beta-minus decay' (or in the case of ${{p}^{+}}\to {{n}^{0}}+{{e}^{+}}+{{\nu}_{e}}$ : 'beta-plus decay'). The emitted electron (or positron) is then introduced as 'beta radiation'. Here, we recommend using the term 'transformation' instead of 'decay', as this more accurately describes the physical process. In addition, doing so can prevent the triggering of misconceptions of the electron or positron as 'fragments' of the original neutron or proton. Instead of using the word 'beta radiation', we also recommend referring directly to emitted electrons (or positrons) to focus more strongly on the particle aspect of the transformation process.

Figure 5.

Figure 5. Beta transformation: a neutron's down-quark transforms into an up-quark, emitting a virtual W boson. The virtual W boson then transforms into an electron and an anti-electron-neutrino. Macroscopically, a neutron (n0) becomes a proton (p+). Note: the weak interaction allows only particle transformations between two specific elementary particles, so-called 'weak isospin doublets'. Prominent examples are the electron-neutrino and electron doublet $\left({{\nu}_{e}},{{e}^{-}}\right)$ , and the up-quark and down-quark doublet $(u,d)$ .

 Standard image High-resolution image Export PowerPoint slide

Overall, this second term of the Lagrangian is of special importance for our everyday life, and therefore merits discussion in the physics classroom. Indeed, apart from gravity, all physical phenomena can be described on a particle level by the basic vertices of the strong, weak, and electromagnetic interaction. Furthermore, given that the strong and weak interactions play a minor role in high-school curricula, almost all physical phenomena can be described using the basic vertex of the electromagnetic interaction (figure 4(a)). However, as discussed above, once this basic vertex is introduced, it is possible to draw connections to the basic vertices of the strong interaction (figure 4(b)) and the weak interaction (figure 4(c)) as well.

3.4. Term 3: $\text{h}.\text{c}.$

This term represents the 'hermitian conjugate' of term 2. The hermitian conjugate is necessary if arithmetic operations on matrices produce complex-valued 'disturbances'. By adding $\text{h}.\text{c}.$ , such disturbances cancel each other out, thus the Lagrangian remains a real-valued function. Actually, the addition of $\text{h}.\text{c}.$  is not required for term 2, since term 2 is self-adjoint. Therefore, this term is often omitted. Anyway, $\text{h}.\text{c}.$  should not be taken literally. Theorists often use it as a reminder: 'If a term changes when conjugating it, then add $\text{h}.\text{c}.$ ! If nothing changes (because it is self-adjoint), then add nothing'. This term does not have a physical meaning, but it ensures that the theory is sound.

Tip: we recommend the CERN-wide interpretation of term 3: $\text{h}.\text{c}.=\text{hot}\;\,\text{cof}\,\text{fee}$ . After all, the Lagrangian is printed on a coffee mug for a good reason. It is therefore advisable to take a break at half time with a mug of coffee. Afterwards, it will be easier to enjoy the full beauty of terms 4 to 7, which we explain next.

3.5. Term 4: ${{\psi}_{i}}{{y}_{ij}}{{\psi}_{j}}\phi $

This term describes how matter particles couple to the Brout–Englert–Higgs field phgr and thereby obtain mass. The entries of the Yukawa matrix yij represent the coupling parameters to the Brout–Englert–Higgs field, and hence are directly related to the mass of the particle in question. These parameters are not predicted by theory, but have been determined experimentally.

Parts of this term still cause physicists headaches: it is still not clear why neutrinos are so much lighter than other elementary particles, in other words, why they couple only very weakly to the BEH field. In addition, it is still not possible to derive the entries of the Yukawa matrix in a theoretically predictive way.

It is known that particles with high mass, in other words with a strong coupling to the Brout–Englert–Higgs field, also couple strongly to the Higgs boson. This is currently being verified experimentally at the LHC, where Higgs bosons are produced in particle collisions. However, Higgs bosons transform into particle–antiparticle pairs after about 10−22 s. Depending on their mass, i.e. their coupling parameter, certain particle–antiparticle pairs are much more likely, and thus easier to observe experimentally, than others. This is because the coupling parameter, which describes the coupling to the Higgs boson, is simply the mass of the particle itself. The Higgs boson is thus more likely to be transformed into pairs of relatively more massive particles and anti-particles. Measurements by the ATLAS detector show, for example, evidence of the direct coupling of the Higgs boson to tauons [5], see figure 6.

Figure 6.

Figure 6. A Higgs boson transforms into a pair of tauon and anti-tauon.

 Standard image High-resolution image Export PowerPoint slide

3.6. Term 5: $\text{h}.\text{c}.$

See term 3, but here this term is really necessary, since term 4 is not self-adjoint. While term 4 describes the interaction between a Higgs particle and matter particles, term 5, the hermitian conjugate of term 4, describes the same interaction, but with antimatter particles. Depending on the interpretation, however, we recommend at least one more mug of hot coffee.

3.7. Term 6: $|{{D}_{\mu}}\phi {{|}^{2}}$

This term describes how the interaction particles couple to the BEH field. This applies only to the interaction particles of the weak interaction, which thereby obtain their mass. This has been proven experimentally, because couplings of W bosons to Higgs bosons (figure 7) have already been verified. Photons do not obtain mass by the Higgs mechanism, whereas gluons are massless because they do not couple to the Brout–Englert–Higgs field. Furthermore, rotating the process depicted in figure 7by 180° leads to an important production mechanism of Higgs bosons in the LHC: the so-called 'vector-boson fusion' in which, for example, a W+ boson and a W boson transform into a Higgs boson (see figure 8).

Figure 7.

Figure 7. One example of a Feynman diagram that is encoded in $|{{D}_{\mu}}\phi {{|}^{2}}$ . A Higgs boson transforms into a pair of W+ and W bosons.

 Standard image High-resolution image Export PowerPoint slide

Figure 8.

Figure 8. Possible vector-boson fusion process from two colliding protons. A down-quark emits a W boson and an up-quark emits a W+ boson. The two W bosons transform into an electrically neutral Higgs boson.

 Standard image High-resolution image Export PowerPoint slide

3.8. Term 7: $-V\left(\phi \right)$

This term describes the potential of the BEH field. Contrary to the other quantum fields, this potential does not have a single minimum at zero but has an infinite set of different minima. This makes the Brout–Englert–Higgs field fundamentally different and leads to spontaneous symmetry-breaking (when choosing one of the minima). As discussed for terms 4 and 6, matter particles and interaction particles couple differently to this 'background field' and thus obtain their respective masses. Term 7 also describes how Higgs bosons couple to each other (see figure 9). The Higgs boson, the quantised excitation of the BEH field, was experimentally confirmed at CERN in 2012. In 2013, François Englert and Peter Higgs were awarded the Nobel Prize in Physics for the development of the Higgs mechanism.

Figure 9.

Figure 9. Diagrams of Higgs self-interaction (3-Higgs vertex and 4-Higgs vertex) that originate from $-V\left(\phi \right)$ .

 Standard image High-resolution image Export PowerPoint slide

4. Conclusions, and what about the second mug?

Our experience at CERN is that both high school students and teachers are greatly fascinated by the Lagrangian. Hence, introducing it in the classroom can contribute positively when discussing particle physics. However, due to the complex level of mathematical formalism used in the Lagrangian, it is probably not favourable to aim for a complete, in-depth discussion. Instead, we recommend starting with an introduction to the individual terms of the Lagrangian by focusing on their general interpretation (see figure 10). Based on this first glimpse into the world of quantum field theory, the associated Feynman diagrams can be discussed, which allow students to gain insight into the precise prediction power of the Standard Model of particle physics. This can even be done in a playful way: by taking conservation of charge (electric, weak, and colour) into account, fundamental vertices can be attached to each other like dominoes. This enables students to determine which processes and interactions between elementary particles are possible. For instance: 'Start with a muon. Is it possible for the muon to transform in such a way that at the end of this process, among other particles, an electron exists?'

Figure 10.

Figure 10. Short version of the Lagrangian. The terms coloured in red are governed by the electromagnetic, weak, and strong interactions, while those that are coloured blue are governed by interactions with the Brout–Englert–Higgs field. Most everyday phenomena, such as light, electricity, radioactivity, and sound, are described by the second term, 'interactions between matter particles'.

 Standard image High-resolution image Export PowerPoint slide

When discussing Feynman diagrams in the classroom, however, it is important to point out that these diagrams are only visualisations of the Standard Model of particle physics. The interpretation of Feynman diagrams is strictly limited to fundamental processes and care should be taken to avoid any notion of misleading interpretation of Feynman diagrams as 2D motion diagrams. Once Feynman diagrams are established, an additional step can be the introduction of Feynman rules [6] and the coupling parameters of the respective interaction particles. Together with conservation of energy and momentum, one can then make full use of Feynman diagrams, which even allow determinations of the probabilities of transformation processes. For instance, this technique is used to calculate the production rates of Higgs bosons at the Large Hadron Collider, which are then compared with measurements from CMS and ATLAS. As mentioned above, any deviation between the two would open the door to new physics and even more exciting times in particle physics.

Although the Standard Model of particle physics is an extremely successful theory, it is far from being a complete description of the universe: according to today's models, the universe consists only of 5% visible matter, which can be described by the Standard Model of particle physics. This means future generations of physicists will still have plenty of new physics to discover! Currently, the hunt is on for theories which go beyond the Standard Model of particle physics to incorporate dark matter and dark energy.

Another shortcoming of the Standard Model of particle physics is the absence of a description of gravity. The search for a unification of all four fundamental interactions through a single theory—the so-called Theory of Everything—can be seen as the quest for the Holy Grail of our times. It is probably a safe bet to say that this ambition will keep supersymmetry researchers and string-theorists busy for quite some time. In the meantime, there are two coffee mugs in the offices at CERN: one for the Standard Model of particle physics and one for Einstein's theory of general relativity (see figure 11). We hope that with the help of further hot coffees we will soon need only one mug...

Figure 11.

Figure 11. Standard Model of particle physics and Einstein's theory of general relativity.

 Standard image High-resolution image Export PowerPoint slide


  • 4

    In this case, one has to sum over the indices according to the Einstein summation convention.

  • 5

    The symbol ψ is also used to represent a wave function in classical quantum mechanics. Although this is related to the field representation we use, the two are not exactly the same.




Contrairement à la notion dite "tension" en mécanique - qui est une force -le mot tension ici implique une énergie

(la tension superficielle est une énergie potentielle de surface ou énergie surfacique)

Synonyme: Tension interfaciale

Equation aux dimensions : M.T-2        Symbole de désignation : W’t       

Unité S.I.+ : J/m² ou N/m

C’est en fait l’énergie interne des molécules d'un fluide, qui s’exprime:

--soit envers des molécules voisines (et s’annule par compensation)

--soit envers les parois (et est compensée par la réaction desdites parois)

--soit envers l’atmosphère si le vase est ouvert (et elle est fonction de la surface d’interface)



W'= dE / dS

où W't(J/m²)= tension superficielle sur une surface S(m²) d’un fluide en interface avec un milieu extérieur ambiant

dE(J)= énergie nécessaire pour augmenter S de dS(m²)



W'= F/ Kz.l

avec W't(N/m)= tension superficielle d'un liquide

Fp(N)= poids d’une goutte de liquide passant par un orifice (Fp = m.g)

m(kg)= masse de la goutte de liquide et g (m/s²) = pesanteur

Kz(valeur # 4)= constante capillaire tenant compte de la matière où se déroule le phénomène

l(m)= rayon de l’orifice d’écoulement



 Δp = W't(1/ l1+ 1/ l2)

où W't(N/m)= tension superficielle sur la surface (non plane) de séparation entre 2


 Δp(Pa)= variation de pression en un point de l’interface

l1 et l2 (m)= rayons des cercles osculateurs perpendiculaires contenant la normale à la surface



(sont notés >> le type d’interface et la valeur, donnée en N/m)

solide / vide(10-1)--solide / gaz(8.10-2)--solide métal /sa propre vapeur(1)--

solide / liquide(2.10-2) comme par exemple glace / eau(..)--

liquide / gaz(10-1 à -2) tels par exemple les solutions de sels usuels avec l’air (1 à 3.10-1)--

mercure / air(5.10-1)--alcool / air( 2.10-2)--hydrocarbures / air(1 à 5.10-2)--

huile / air(3.10-2) --eau / air(7,3.10-2)--eau / vapeur d’eau(8.10-1)

Nota >> W’t varie avec la température (# 2% pour 10 degrés)

Copyright Formules-physique ©

The Marangoni Effect

Understanding the Marangoni Effect

The Marangoni effect takes place when there is a gradient of surface tension at the interface between two phases – in most situations, a liquid-gas interface. The surface tension typically changes due to variations in solute concentration, surfactant concentration, and temperature variations along the interface.

In some eutectics or multicomponent liquids, the direction of the gradient of surface tension tangential to the interface can be changed by altering the concentration of the solutes at the surface or by adding surfactants. Depending on the fluid, a rather strong convective motion may be produced. This results in a shear stress at the surface, similar to what the wind can create.

In cases where the concentration drives the variation of the surface tension, the Marangoni effect is referred to as the solutocapillary effect. In cases where the surface tension varies with the temperature, the Marangoni effect is referred to as the thermocapillary effect. Both effects can take place simultaneously.

Simulation of Marangoni convection.Simulation in which heat is applied to a free surface. Isotherms, velocity arrows, and streamlines are displayed, illustrating the motion directed toward the outer cold boundary. This example describes the thermocapillary effect as it relates to temperature dependence.

The Marangoni Effect Versus the Capillary Effect

It is important that the Marangoni effect is not confused with the pure capillary effect. Capillary forces are responsible for a meniscus at an interface, or the shape of a water droplet. The typical size of a small droplet of liquid derives from the equilibrium between the surface tension force  and the hydrostatic pressure . The size  is called the capillary length, which can be estimated from:

Here,  is the surface tension in N/m,  is the density of the fluid forming the droplet in kg/m3, and  is the gravity in m2/s.

In water,  = 72.8e-3 N/m at 20°C. The capillary length is thus within the range of 2 to 3 mm for water. This provides a good estimate for the diameter of a water droplet that is simply at rest on a table. Above this dimension, gravity becomes more and more predominant. Below this dimension, capillary forces are often much greater than the effects of gravity. All of this is true for an isothermal system.

However, when a meniscus is present and a solute evaporates from the liquid surface (e.g., ethanol in a water solution), gradients in concentration may occur along the surface of the liquid. The reason for these gradients is that the evaporating solute is replaced more quickly at the flat surface compared to the meniscus, since the solute transport from the bulk to the surface is faster at the flat interface. In a way, this connects capillary effects and the Marangoni effect.

The Marangoni effect produces tears of wine.The alcohol concentration gradient, caused by differences in the transport rate of alcohol from the bulk to the flat surface and from the bulk to the meniscus, results in surface tension gradients and the formation of tears of wine.

The Marangoni effect can take place at both ranges of dimensions – microfluidics and larger meter scales. What's important is the variation of the surface tension – for example, with respect to the temperature in the thermally induced Marangoni effect. The scale at which the thermally induced Marangoni effect is active relates to the temperature gradient in the direction tangential to the interface.

A variation of  might then come from thermal or composition (concentration) effects:

with  and  denoting the temperature and concentration.

 is the thermal dependence of the surface tension in N/m/K. The absolute value is used so that the nondimensional Marangoni number remains positive.

A similar definition applies to the composition dependence of the surface tension.

Plots showing Marangoni convection with increasing temperature differences.As temperature differences increase, the Marangoni effect becomes more pronounced.

The thermally induced Marangoni effect relates the normal component of the shear stress to the tangential derivative of the temperature. For an incompressible fluid with no pressure contribution in a laminar flow, it is written as:

This is a boundary condition that acts at the free surface of the fluid (typically a gas-liquid interface) modeled with the Navier-Stokes equations.

The Marangoni number is the nondimensional number that gives the ratio between the thermocapillary effect and the viscous forces.

 is the the length scale of the system in m,  is the maximum temperature difference across the system in K,  is the dynamic viscosity in kg/s/m, and  is the thermal diffusivity in m2/s.

You might prefer to rearrange this as:

where  is the kinematic viscosity in m2/s.

Written in this format, there is an analogy with the Rayleigh number that is relevant for conjugate heat transfer due to Archimedes' forces.

The typical velocities involved are the thermocapillary velocity , the thermal diffusion velocity , and the molecular diffusion velocity .

Based on this, it is easy to derive an equivalent Reynolds number as:

 is the Prandtl number, which is characteristic of the fluid of interest.

As is the case with the Reynolds number, typical orders of magnitude for flow characterization with the Marangoni number depend greatly on the geometry. However, a Marangoni number above 1·105 will typically develop unsteady flows, if not turbulent.

The Impact of the Marangoni Effect

First noted in the phenomenon of tears of wine, the Marangoni effect has been observed in various surface chemistry and fluid flow processes.


Welding is a fabrication process where the Marangoni effect has to be accounted for. When the base metal during welding reaches its melting point, a weld pool forms. Marangoni forces within these pools can affect the flow and temperature distribution and modify the molten pool extension. This can potentially result in stresses within the material as well as deformation.

Crystal Growth

Semiconductors are usually comprised of crystal lattice structures. The processes for developing pure crystals (e.g., silicon) consist of purifying the metal, which begins with melting the solid. During purification, convection in the liquid phase must be allowed so that impurities like oxides, which are often lighter than metal, have time to separate. Additionally, heat transfer must be regulated so that the shape of the solidification front is controlled.

Forces from the Marangoni effect can impact crystal growth, causing faults within the structure. These faults can inhibit the material's semiconducting capabilities and result in defects within the device.

Electron Beam Melting

Using an electron beam as its power source, metal powder can be melted to manufacture mechanical parts. This method of additive manufacturing has gained popularity in the development of medical implants as well as the aerospace industry. During the melting process, large thermal gradients can generate Marangoni forces within the melt. Such forces have the potential to negatively affect the quality of the material.


Source :

Des smartphones pour faire des expériences de physique au lycée et à l’université

Des smartphones pour faire des expériences de physique au lycée et à l’université

Deux milliards de smartphones sur la Terre. 25 millions de possesseurs en France cette année. Ça augmente toujours. Une épidémie galopante, puisque on passe de rien à un milliard en bien moins de dix ans. En 1991, un iPhone aurait coûté 2,6 millions d'euros est-il écrit dans un article récent. S'il en était besoin, cela souligne la puissance technologique de ces appareils tellement bien adaptés à nous, pauvres humains, que nous ne la voyons plus vraiment. C’est vraiment un chef d'œuvre du design industriel que d’avoir réussi cela.

Utilisation des smartphones dans l'éducation

Pour les enseignants en science, le regard porté sur ses appareils peut être tout autre.

Une simple bille en verre de 1 mm environ permet de s’en rendre compte. Placée sur l'objectif de la caméra du smartphone, elle en fait un microscope optique capable de distinguer les globules rouges. C’est un retour incroyable aux origines de la microscopie optique et à son précurseur Antoine Van Leeuwenhoek (1632-1723). Une bille en verre devant l'œil est le premier microscope qu’il a construit. Il a permis de découvrir les spermatozoïdes. Aujourd’hui à la place de l'œil, derrière la bille, on place la caméra du smartphone et son détecteur CMOS. C’est bien plus pratique et bien plus puissant. La technologie associée au numérique simplifie même le microscope optique. L'image enregistrée peut être immédiatement partagée sur le web. En fait une goutte d’eau placée sur l’entrée de la caméra fait parfaitement l’affaire.

La revue des professeurs de physique aux Etats-Unis, The Physics Teacher, ne s'y est pas trompée et a créé la rubrique mensuelle iPhysicsLabs qui montre combien un smartphone est un instrument de mesure puissant au service de la démarche expérimentale en classe à différents niveaux et utilisable dans une grande diversité de sujets enseignés en physique. La plate-forme européenne pour les professeurs de sciences, Science on Stage, a aussi constitué un groupe de travail «iStage 2: Smartphones in Science Teaching» auquel participent Philippe Jeanjacquot et Francoise Morel-Deville de l'Institut Français d'Education à l'Ecole Normale Supérieure de Lyon (voir les ressources Smartphones et Education). Plusieurs groupes de recherche allemands (Kaiserslautern , Munich,…) en didactique de la physique en ont fait un projet de recherche.

Cet intérêt n’est en fait pas une surprise. Avec les smartphones, chaque élève, peut disposer d'un accéléromètre 3D, d'un gyroscope 3D, d'un magnétomètre 3D, de deux caméras de haute performance, d'une source de lumière blanche intense et froide (pas de LED en 1991), d'un microphone et d'un haut-parleur. Excusez du peu. Et en plus, de nouveaux capteurs viennent périodiquement compléter la panoplie. Les derniers smartphones intègrent des capteurs très performants de température et de pression. C’est la porte ouverte à l’étude expérimentale par les smartphones de la thermodynamique, la science des échanges d’énergie et des machines thermiques. Tout ceci est donc intégré, tient dans la main et peut stocker l'ensemble de ces données ou les envoyer en temps réel jusqu'à cent fois par seconde à un ordinateur. A partir de là, les capteurs microsystèmes que sont l'accéléromètre et le gyroscope vous permettent d'étudier expérimentalement et en détail, les grands classiques des salles de cours comme le pendule ou la rotation (un smartphone dans une essoreuse à salade constitue un excellent montage expérimental pour étudier le mouvement circulaire uniforme).

Par exemple, à partir des équations de la Mécanique Classique (un des cours les plus visités sur le site MIT OpenCourseWare), la combinaison des données issues de l’accéléromètre et du gyroscope du smartphone permet de reconstruire sans paramètre ajustable la trajectoire du Tram B de Grenoble et de la comparer à celle qui apparaît sur Google Maps. Longue discussion avec les étudiants de première année de Licence à propos de l’intégration numérique et des sources d’erreur pour expliquer les différences observées même si le résultat est plus que convaincant. Gros succès aussi auprès des utilisateurs du tramway devant une troupe d’étudiants installant des smartphones sur les sièges et attendant très attentifs les signes du départ.

Source : Joel Chevrier,dans echosciences du 6 novembre 2016  

The world’s shortest intelligence test can tell if you have a higher IQ than a Harvard student

Yet even still, as we progress ever further as a society, uncovering deep mysteries of our universe while managing to stay abreast of each new iPhone release, a true definition of intelligence is hard to come by.

Of course, the retention and application of knowledge is a key part of what we understand intelligence to be; but in what parameters? And to what end?

Archaic views of intelligence would have you believe that scholarly academia was the only true measure of intellect, but this holds little relevance in our modern culture. If part of what makes us intelligent is rooted in its application, then by extension we might assume that true intelligence should be useful somehow – but this clearly isn’t always the case.

Enter stage left the IQ test, which aims to place some sort of measure of intelligence upon us. The IQ test has enjoyed something of a revival in recent days after the President of the United States, Donald Trump, challenged his own Secretary of State, Rex Tillerson, to take one and compare results – presuming, of course, that those results would favour himself.

Competitiveness is built into our very nature, and everyone likes to appear intelligent, even if they secretly worry that they might not be as clever as the image they portray. Perhaps this is why the IQ test has become such a valued barometer of virtue in our society, a measuring stick that the intelligent can wield against opponents in times of intellectual debate.

Despite the IQ test’s current resurgence, thanks largely to the leader of the free world, researchers are constantly attempting to ascertain new ways to define and measure intelligence.

Indeed, a few years ago, a psychologist named Shane Frederick devised a short, concise, three question test as a means of testing intellect. It’s an interesting idea that purports to measure how well we are able to override our impulses to correctly work out what the answer is.

The test does not directly measure one’s IQ, though students from participating universities certainly found it a challenge; 20% of students from Harvard, widely considered the most prestigious university in the world, got zero correct answers when they attempted the questions.

Here they are, so you can try them at home:

1. A bat and a ball cost $1.10 in total. The bat costs $1 more than the ball. How much does the ball cost?

2. If it takes 5 machines 5 minutes to make 5 widgets, how long would it take 100 machines to make 100 widgets?

3. In a lake, there is a patch of lily pads. Every day, the patch doubles in size. If it takes 48 days for the patch to cover the entire lake, how long would it take for the patch to cover half of the lake?

And now here are the answers:

1. A lot of people would instinctively answer 10 cents, but this would mean that the bat was only 90 cents more expensive than the ball. The correct answer is 5 cents.

2. IFL Science explains; “Your gut instinct might be to say 100 minutes. Fortunately, it wouldn’t take quite so long. From the question, we can determine it takes exactly 5 minutes for 1 widget machine to make 1 widget. Therefore, it would take 5 minutes to make 100 widgets from 100 widget machines.”

3. Again, IFL Science breaks it down; ” You might have guessed 24 days. It seems intuitive to half the number of days because you’re halving the size of the lilypad patch. But if the area of the lake covered in lilypads doubles every day, it would only take one day for it to go from being half covered to fully covered. Take one day away from 48 days and you’re left with 47.”

How did you get on? Are you a genius? Did you do better than 20% of Harvard students?

Good, now back to work!

By DozeBuzz

La mosca nel bicchiere (quanto pesa quando vola ?)

Una mosca (peso 5gr) è dentro un bicchiere (100gr) capovolto su una bilancia. Quanto segna la bilancia

1) quando la mosca è appoggiata ferma sulla bilancia ?
2) mentre la mosca si alza in volo dentro il bicchiere ?

3) mentre la mosca vola ad altezza fissa, diciamo a metà del bicchiere ?

4) mentre la mosca, spinge il bicchiere nel tentativo di sollevarlo ?
5) mentre la mosca, stremata, precipita inerte verso il piatto della bilancia ?


Domanda trovata su Yahoo ! Answers [1]

Risposta proposta da  Franco Bagnoli [5]

Una mosca (peso 5gr) è dentro un bicchiere (100gr) capovolto su una bilancia. Quanto segna la bilancia nei seguenti casi?
  1. Mentre la mosca è appoggiata ferma sulla bilancia; 
  2. Quando la mosca si alza in volo dentro il bicchiere; 
  3. mentre la mosca vola ad altezza fissa, diciamo a metà del bicchiere; 
  4. Quando la mosca spinge il bicchiere nel tentativo di sollevarlo; 
  5. Mentre la mosca, stremata, precipita inerte verso il piatto della bilancia. 
Ho estratto alcune risposte, che penso siano tipiche:
  • La bilancia segna 105 g quando la mosca è ferma a contatto con il bicchiere (caso 1), 100 g quando non è a contatto (casi 2,3,5), < 100 g quando la mosca è a contatto con il bicchiere, ma spinge verso l'alto.
  • La bilancia segna 105g quando la mosca è a contatto, incluso il caso in cui comincia a spingere verso l'alto (caso 1 e inizio del caso 2), 100 g quando non è a contatto ma più di 105 g quando, cadendo, arriva vicino alla bilancia. Questo perché quando è lontana le molecole di aria su cui lei si appoggia si disperdono, ma invece quando è vicina al fondo le molecole d'aria arrivano a battere direttamente sul fondo.
  • Sempre 100 g quando non è a contatto con qualcosa.
  • Sempre 105 g, perché il sistema è limitato.
Il problema qui è che la mosca non sembra interagire con la bilancia, essenzialmente perché c'è nel mezzo l'aria che è considerata "troppo molliccia" per comunicare una forza. Se al posto dell'aria ci fosse un filo, e al posto della mosca un ragno che si arrampica sul filo, sono sicuro che le risposte sarebbero diverse.
Cerchiamo di impostare il problema seguendo la fisica. Il sistema si può schematizzare con una scatola (che comprende il bicchiere e il piatto della bilancia), una molla (la bilancia), la mosca e l'aria. L'ago della bilancia mostra la compressione della molla. Le forze esterne al sistema sono la forza della molla (che agisce sulla scatola) e la forza di gravità (che agisce sulla scatola, sull'aria e sulla mosca). Però l'aria si può anche considerare un mediatore di forza senza peso, vista la sua bassa densità.
Tra mosca e scatola ci sono senz'altro delle forze, dato che altrimenti la mosca cadrebbe (sentirebbe solo la forza di gravità). Possiamo considerare alcune variazioni del problema:
  1. Al posto dell'aria mettiamo un filo e al posto della mosca un ragno. In questo caso l'aria non serve e possiamo pensare che ci sia il vuoto.
  2. Al posto della mosca mettiamo una pallina che è mantenuta in posizione da un getto d'aria proveniente da un ventilatore posto sul fondo della scatola.
  3. Al posto della mosca mettiamo un disco volante che si sostiene spedendo un raggio di fotoni verso il basso, fotoni che collidono con il fondo della scatola. Anche in questo caso non c'è bisogno dell'aria e quindi supponiamo che ci sia il vuoto nella scatola.
  4. Il disco volante si mantiene sparando delle palline di pongo verso il fondo della scatola (le palline in questo caso non rimbalzano e restano lì dove collidono).
  5. Possiamo considerare esplicitamente tutte le molecole di aria e le interazioni tra di loro, tra loro e la mosca e tra loro e la scatola.
In tutti questi casi abbiamo delle forze tra la mosca (o il ragno o il disco volante) e la scatola, o tra la mosca e le molecole d'aria (o le palline o i fotoni) e tra queste e la scatola.
Ora, possiamo generalizzare il problema (come viene fatto nei libri di testo) indicando con m le varie masse, ri le loro posizioni e  fi le forze agenti su queste. Le forze fi sono composte dalla somma delle forze esterne fi(e) (la forza peso e le forza tra scatola e molla della bilancia) e forze interne  fi(i)Σj fij esercitate sul corpo i da tutti gli altri corpi j (sono sempre forze interne al sistema, per esempio tra mosca e molecole d'aria o tra queste e la scatola). Ovviamente abbiamo  fi = mi ai, dove  asono le accelerazioni, ovvero le derivare seconde delle posizioni.
Adesso compaiono i due attori principali: il centro di massa e il principio di azione e reazione.
Il centro di massa è definito come un punto di massa M=Σi mi e di posizione R tale che MR=Σi mi ri.
Il principio di azione e reazione dice che se un corpo i agisce su un corpo j con una forza fij, allora il corpo agisce su i con una forza uguale e contraria, ovvero fji=-fij. 

Quindi, se mettiamo tutto insieme, abbiamo che l'accelerazione (A) del centro di massa è tale che

 MΣi mi aΣi fΣi fi(e)+Σi fi(i) Σi fi(e)+Σij fij.
Ma l'ultimo termine è nullo a causa del principio di azione e reazione, e quindi abbiamo che il moto del centro di massa è dato solo dalla somma delle forze esterne, che è il motivo per cui il centro di massa di un sistema è un concetto molto utile. Per esempio, per determinare il moto del centro di massa di un oggetto rigido, possiamo semplicemente ignorare le (grandissime) forze interne che tengono il corpo unito.
Per lo stesso motivo possiamo ignorare le forze tra mosca, molecole di aria e scatola, e considerare semplicemente il moto del centro di massa del sistema scatola-aria-mosca.
Ora, la scatola e l'aria stanno globalmente ferme. In realtà le molecole di aria si muovono, ma il loro centro di massa no. E della mosca conta solo la sua accelerazione.
  • Quando la mosca sta ferma (caso 1, 3 e 4) la bilancia segna 105 g. Questo anche quando la mosca si muove di moto rettilineo uniforme, quindi anche nei casi 2 e 5 dopo l'accelerazione iniziale.
  • Quando la mosca accelera verso l'alto (inizio del caso 2) la bilancia segna più di 105 g, perché c'è una forza totale verso l'alto che non può che essere comunicata dalla molla della bilancia.
  • Quando la mosca accelera verso il basso la bilancia segna meno di 105 g. Se la mosca cadesse con accelerazione pari a (per esempio quando è il disco volante a cadere) allora non "peserebbe" e la bilancia segnerebbe 100 g.
In realtà tra quando la mosca inizia ad accelerare verso l'alto e il momento in cui la bilancia segna la variazione di forza passa il tempo necessario a far sì che l'aria "comunichi" questa variazione alla base, ovvero il tempo necessario perché l'onda di perturbazione dell'aria, viaggiando alla velocità del suono, raggiunga il fondo della scatola. In questo caso la variazione è pressoché istantanea, ma il problema ricorda molto quello della molla slinky [2].
Il problema è simile a quello della clessidra sulla bilancia: Una clessidra a sabbia (più propriamente clepsamia) è posta su una bilancia, ed ha un meccanismo a distanza (tramite wifi) di sblocco del flusso di sabbia. A un certo istante la sabbia inizia a scendere, continua finché la clepsamia è quasi vuota e poi cessa. Cosa segna la bilancia nei vari istanti? [3]
Un problema collegato ma molto interessante è il seguente: cosa succede se invece il bicchiere è dritto e la mosca vola ad altezza costante dentro il bicchiere o sopra il bicchiere?
Ovviamente se la mosca è vicina al fondo, non dovrebbe cambiare nulla e la bilancia segnerà 105 g, ma se la mosca è molto più in alto del bicchiere, ci si aspetta che la bilancia segni 100 g. In questo caso il fatto è che il getto di aria spinto verso il basso dalla mosca a una certa altezza "esce" dal bicchiere e preme sull'ambiente circostante, come si può visualizzare pensando a un disco volante che si regge su un fascio fotonico.


Un problema simile è quello del furgone pieno di piccioni. Ogni volta che sta per passare su un ponte, il guidatore scende e batte sul lato del cassone. Quando gli viene domandato perché, lui spiega che il furgone è al limite della tolleranza dei ponti, ma essendo pieno di piccioni, lui li spaventa così che volino e non contribuiscano al peso del veicolo.
Vedere come i MithBusters affrontano la situazione [4].
[2] Quando si fa cadere una molla slinky si vede che l'estremo inferiore della molla non si sposta finché non viene raggiunto dall'estremo superiore (che cade con accelerazione maggiore di g). Il fatto è che le perturbazioni nei materiali viaggiano con la velocità del suono, e questa nella molla slinky è piuttosto bassa. Quindi il moto di caduta dell'estremo superiore diventa rapidamente supersonico e nessuna perturbazione può raggiungere l'estremo inferiore prima dell'arrivo di quello superiore.
[3] Data una clessidra sulla bilancia, abbiamo che all'inizio della caduta della sabbia c'è una accelerazione del centro di massa verso il basso, quindi la bilancia segna meno del peso della clessidra. Durante la caduta a velocità costante della sabbia la bilancia segna il peso della clessidra. Alla fine abbiamo una brusca frenatura del centro di massa (accelerazione verso l'alto) e quindi la bilancia segnerà più del peso della clessidra. Si pensi a raggruppare tutta la sabbia in un unico blocco...

Weighing a Gas - Peser un Gaz 

Can you weigh the gas in a closed container? The answer from Newton's laws is yes! If you weigh an "empty" compressed gas cylinder and fill it with high pressure gas, it will then weigh more on an ordinary scale since you are weighing the gas in the cylinder. This will be demonstrated with a single molecule moving vertically, but the same result is obtained with any number of molecules moving in random directions so long as the collisions between them are elastic collisions.

The difference between the average force on the bottom and top of the container is just the weight, mg, of the molecule. This can be generalized to any number of molecules traveling in random directions.

If a molecule traveling in a random direction has a y-component of velocity, it will eventually collide with the top or bottom of the container. In an elastic collision with the fixed wall, the y-component of velocity will be reversed, giving a change in momentum of twice the mass times the original velocity. The force on the wall during that brief collision is quite high, but the much smaller average force of the collision is obtained by dividing the change in momentum by the entire round-trip time to the opposite end of the container and back. Taking an average force like this allows you to determine average forces and average pressures on the walls of a container of gas.

The fact that the molecules may undergo many collisions on the way from top to bottom does not change this outcome. If a molecule has a certain momentum toward the bottom as it starts from the top, that net momentum toward the bottom will not be changed, even if it undergoes billions of collisions. It will transfer momentum to many other molecules and the particles which eventually reach the bottom with that momentum will exert the same average force as if the original molecule got there.

What do you think? If a closed truck is carrying a lot of birds, will the truck weigh less if the birds are flying around in the truck?

Is the atmospheric pressure times the area of the Earth's surface equal to the weight of the atmosphere?

Source : Weighing a Gas

La leggerezza dell'aria (e del vapor d'acqua)

La leggerezza dell'aria (e del vapor d'acqua)

L'aria, come tutto l'universo, è fatta da atomi e dunque è materialissima. Ha una massa, sulla bilancia si può pesare, urta e si fa sentire, ha proprietà insomma come il resto del mondo fisico.

Che l’aria sia a noi indispensabile non fa notizia. Si rischia di soffocare, senza aria. Nella mia stanza ora c’è aria, per fortuna, e anche nella vostra. Chiedete però a un bambino cosa c’è in quel bicchiere “vuoto” sul tavolo. La risposta, secca e indiscutibile, sarà "un bel niente”: non dice che c’è aria, no. Siccome il bicchiere “serve” per contenere acqua (o vino), il fatto che questi liquidi non siano presenti relega l’invece presentissima aria a un nulla di fatto. 

La sostanza fisica dell’aria o, più in generale, di una sostanza allo stato gassoso, è questione risolta da un sacco di tempo nel linguaggio e nella rappresentazione delle scienze fisiche ma, da un punto di vista invece della percezione intuitiva e spontanea, lascia molti dubbi da risolvere.

Il punto è che, quando la percepiamo, l’aria (o il gas) si fa sentire come un “continuo”, mobile, imprendibile, tenue e, per dirla come di solito si usa dire, rarefatto. Eppure le cose vanno diversamente. L’aria, come tutto l’universo, è fatta da atomi (uniti a formare molecole) e dunque è materialissima. Ha una massa, sulla bilancia si può pesare (con qualche cautela), urta e si fa sentire, ha proprietà insomma come il resto del mondo fisico.

Il fatto che sia allo stato gassoso la rende differente in termini di comportamento “macroscopico” (vecchia storia quella della differenza fra solido, liquido e gas, vero?) eppure siamo in grado di misurarne e di comprenderne i dettagli microscopici (ossia la sua costituzione in termini atomici o molecolari).

L’aria è un miscuglio di gas di varia natura (azoto, ossigeno molecolari, poi anidride carbonica, vapore d’acqua e una spruzzata di altri elementi) che condividono lo spazio da essi occupato, urtando le pareti del contenitore che eventualmente li racchiude. Questi urti esercitano una forza media che viene di solito detta “pressione” del gas. Alta pressione, grande forza sulle pareti.


La pressione dell’aria non è il suo peso, come di solito viene riportato da testi o siti di scienza pasticciati e pasticcioni. Se fosse il suo peso allora verrebbe esercitata, la pressione, unicamente dall’alto verso il basso, verticalmente, come fa ogni bravo peso.

Allora sì che saremmo nei guai, tutti schiacciati da una forza enorme (l’atmosfera, in effetti, è un’unità di misura della pressione che non si dovrebbe più utilizzare perché ora si deve esprimere tutto nel “Sistema Internazionale” di misura, che per la pressione utilizza il “pascal”, ovvero il newton(forza) su metro quadrato).

Quant’è, ora, nella mia stanza, la pressione? Circa 98000 newton su metro quadrato (pascal), ovvero 9,8 newton su centimetro quadrato o, se preferite, quello che potrebbe fare una massa di un chilogrammo su questo centimetro quadrato. Perché non ci fa male? Perché questa forza è presente ed equilibrata in tutte le possibili direzioni spaziali: è dovuta agli urti delle molecole di aria, che schizzano in tutte le direzioni, senza preferenze.

Dunque la pressione non è “in giù”, ma anche in qua, in là, in su e così via.

Le molecole schizzano a quali velocità? Molto grandi, secondo le nostre idee di rapidità. Svariate centinaia di metri al secondo: quanto precisamente valga la velocità è legato al nostro termometro. Quando misuriamo la temperatura di un gas (dell’aria della nostra stanza) stiamo assegnando in realtà un numero alla rapidità con la quale, in media, le molecole stanno per l’appunto schizzando nel loro moto casuale e frenetico.

Tanto maggiore è la velocità in media delle particelle (in media: ognuna di esse ha la sua velocità differente da quella delle altre, anche se poi nel loro complesso si muovono con una certa “prevedibilità” statistica) tanto più alto è il valore della temperatura. Se si preferisce, è possibile dunque pensare alla temperatura di un gas come a una lettura di un suo comportamento atomico.

La pressione misura le “spinte” delle particelle di gas, la temperatura la loro velocità. C’è un collegamento fra questi due aspetti microscopici? Certo che sì: studi di ormai duecento anni fa, hanno stabilito in modo chiaro e puntuale che in un dato volume di gas, alla presenza di un certo quantitativo di materia, la pressione e la temperatura sono legate da una semplice relazione di proporzionalità diretta: se si raddoppia la temperatura, si assiste a un aumento di pari proporzione (un raddoppio, dunque) anche della pressione. Se, attenzione, il volume occupato dal gas non cambia. Potrebbe altresì essere che si cerchi di stabilire una relazione fra il volume occupato dal gas e la sua temperatura, oppure la sua pressione. Di nuovo, la soluzione è sorprendentemente semplice (pur di considerare trasformazioni “ideali” di sostanze gassose, nelle quali fenomeni come la formazione di stati di aggregazione liquida o solida non avvengano) e prevede che, mantenendo costante la temperatura del gas, al raddoppio del suo volume, ne consegua un dimezzamento della sua pressione. Oppure, mantenendo costante la pressione della sostanza, se il volume dimezza la temperatura deve raddoppiare.


Vi sono poi casi più generali, nei quali sia la temperatura, che la pressione e il volume di un gas mutano in una trasformazione. Per esempio, succede che un volume di aria espanso rapidamente non permetta lo scambio di energia termica (calore) e questo conduce a una diminuzione sia della pressione che della temperatura del gas. Questo è un fenomeno particolarmente interessante da studiare quando si tiene conto che nella miscela di gas che costituiscono l’atmosfera terrestre c’è il vapore d’acqua. In corrispondenza del raffreddamento causato dall’espansione si può assistere alla condensazione (trasformazione da gas a liquido) dell’acqua. Questo meccanismo è fondamentale per comprendere la formazione delle nubi in corrispondenza, infatti, della salita in quota di masse di aria che si espandono (minore pressione) raffreddandosi.

Anche l’umidità relativa dell’aria è un “noto ignoto” dei nostri bollettini meteo. Quando leggiamo sul misuratore di umidità (tabelle di solito che riportano RH come sigla) il dato “60%” cosa intende indicare? (A proposito, il misuratore in questione si chiama igrometro o anche, in certi casi, psicrometro). Semplice, o quasi: vuol dire che nella nostra aria è presente una massa di vapore d’acqua (necessariamente gassoso, altrimenti sarebbe in formato liquido visibile, gocce insomma) pari al 60% (frazione dello 0,6) della quantità di vapore che, a questa stessa temperatura dell’aria che stiamo considerando, sarebbe al limite della condensazione. In altre parole: a una data temperatura il vapore d’acqua rimane gassoso fino a una certa pressione (la “tensione di vapore saturo”), poi diventa liquido. Se di vapore ce n’è di meno di quello necessario ad avere la pressione “satura”, allora non si forma liquido. La misura della frazione di vapore presente riferita a quello di saturazione è proprio l’umidità relativa.

Attenzione dunque: il numero 60%, per esempio, non ci dice quanto vapore in assoluto c’è. Per saperlo bisogna conoscere la temperatura dell’aria.

Potrebbe ben essere che un’umidità relativa al 60% implichi meno vapore d’acqua (umidità assoluta) di un’umidità relativa al 50%, se quest’ultima è riferita a una temperatura relativamente elevata.

Source : La leggerezza dell'aria (e del vapor d'acqua)

L'histoire du four Micro-Ondes

1946, États-Unis. L’ingénieur Percy Spencer, soudain pris d’une petite faim, glisse la main dans la poche de sa blouse et attrape une barre de chocolat… Malheureusement pour lui, cette dernière est complètement fondue...

Peut-être n’y aurait-il pas prêté plus d’attention, si ce n’était pas déjà la troisième fois ! Il s’interroge : la chaleur de son corps serait-elle responsable ou autre chose fait-il fondre le chocolat ?

L’ingénieur travaille alors sur les radars et tout particulièrement sur l’un de ses composants, un tube à vide produisant des ondes, appelé "magnétron".

C’est d’ailleurs cet appareil qu’il soupçonne d’avoir fait fondre son chocolat. Il se demande si les micro-ondes produites par celui-ci pourraient cuire des aliments…

Pour en avoir le cœur net, il réalise une expérience pour le moins originale : il bricole le magnétron et place ensuite à proximité... des grains de maïs. Et là, surprise, les grains chauffent tellement qu’ils donnent du pop-corn !

S’en suit un ballet d’essai culinaire : œuf, sandwich, tout y passe. Spencer prend même l’habitude de réchauffer son déjeuner dans son micro-ondes.

Convaincu du potentiel de son invention, il dépose un brevet et parvient à persuader sa société de la commercialiser sous le nom de "Radar Range". Le micro-ondes ressemble alors à un gros frigo et coûte très cher.

Il faudra attendre plusieurs années pour que les scientifiques comprennent son fonctionnement. Ce sont en fait les micro-ondes qui, en agitant les molécules d'eau contenues dans les aliments, parviennent à les chauffer.
Aujourd’hui presque tous les foyers occidentaux possèdent un radar antiaérien dans leur cuisine !

Pour en savoir plus :

Sur Percy Spencer

Sur la découverte du micro-onde

Sur comment fonctionne un micro-ondes

Source de l'article : Clément Jailin Sciencetips

Résonance, ponts et verres


Vous n'arrivez pas à voir les images ? Contactez-nous sur
Carte postale : Pont suspendu de la Basse-Chaine avant la Catastrophe du 16 avril 1850, Angers
Voir en grand

1850, Angers. Alors que la tempête se déchaîne, un régiment d’infanterie se dirige vers l’une des places de la ville. Pour y arriver, les hommes traversent le pont suspendu de Basse-Chaîne. Ces centaines de soldats marchent énergiquement, au pas cadencé. Une erreur qui leur est fatale…

Vous n'arrivez pas à voir les images ? Contactez-nous sur
Catastrophe du Pont suspendu, actuellement Pont de la Basse-Chaîne en l’année 1850, Angers
Voir en grand

En effet, une fois arrivé sur le pont, le régiment ne ralentit pas son allure et conserve la cadence. Soudain, alors que l’intégralité du régiment est sur le pont, celui-ci s’effondre ! Tous les hommes tombent à l’eau. Les témoins de l’époque rapportent un terrible carnage : plus de 200 soldats périssent noyés, percés par leurs baïonnettes ou écrasés sous les restes du pont…

Vous n'arrivez pas à voir les images ? Contactez-nous sur une vidéo :
L’effondrement du pont de Tacoma, dû au phénomène de résonance, le 7 novembre 1940

Mais que s’est-il passé ? Les ponts, comme toute structure, possèdent des fréquences propres qui s’expriment en hertz, c’est-à-dire en nombre de vibrations par seconde. Or, le pas des soldats génère également des vibrations (2 à 3 hertz). Lorsque les fréquences de ces vibrations, celle du pont et celle des pas des soldats, deviennent très proche, il se produit un phénomène physique dit de "résonance". Ce phénomène provoque une amplification de la vibration naturelle du pont, qui se met soudain à onduler.

N’ayant pas été conçu pour résister à un tel mouvement, le pont finit par céder.

Vous n'arrivez pas à voir les images ? Contactez-nous sur
Démonstration du phénomène de
résonance provoquant l'explosion d'un verre en cristal

De la même façon lorsque la Castafiore parvient à chanter, proche de la fréquence propre d’un verre de cristal, il explose !

Après la catastrophe, l’émoi est tel qu’une commission d’enquête est lancée. On accuse les câbles, un peu vétustes, et la tempête. Surtout, on comprend les dangers possibles du phénomène de résonance pour les ponts.

Ce genre de désastres brutaux a donc eu une conséquence surprenante. Dans les règlements militaires, il est désormais rigoureusement interdit de marcher au pas sur un pont !

Sur le phénomène de résonance (vidéo)


"D’après une étude" : cet imparable argument d’autorité...

« D’après une étude » : cet imparable argument d’autorité...

« Les couches-culottes sont toxiques pour les bébés, d’après une étude »… « D’après une étude, les gens qui se parlent à eux-mêmes seraient des génies »… « D’après une étude, le spoiler est bon pour vous »… Il ne se passe pas un jour sans que les médias (que je consulte) utilisent cette formule. Certains des articles sont très bien écrits et, rapportant ce qui a été fait dans l’étude, permettent réellement au lecteur de se faire une opinion argumentée. D’autres se contentent d’un gros titre et de quelques considérations générales, attrayantes, mais pas étayées. C’est là que le bât blesse.

Publis. European Southern Observatory/FlickrCC BY

En creusant un peu, on se rend vite compte que, pour chaque étude montrant un résultat « blanc », il y en a au moins une autre qui montre un résultat « noir ». Alors, pourquoi se fier plus à l’une qu’à l’autre ? Parce qu’elle a été relayée davantage par les (multi-)médias ? Parce qu’elle est attribuée à « une université prestigieuse » ou à un « grand professeur » ? Ou encore parce qu’elle a été qualifiée de « très sérieuse » ? Parce qu’elle a été mieux faite ? Ce dernier argument est peut-être celui qui tombe le mieux sous le sens. À condition de savoir décortiquer ces fameuses études. Voici un mode d’emploi et quelques recommandations d’usage.

Les dessous d’« une étude… »

Il existe plusieurs formats pour la publication des articles scientifiques, mais tous ont en commun une structure, concrète, efficace, souvent éloignée de la belle histoire que l’on peut en tirer a posteriori. « Une étude », c’est un titre, des auteurs, un résumé, une introduction, des méthodes, des résultats, une discussion, des remerciements, des références.

Description scientifique en 1904 d’une nouvelle espèce d’araignée, Pacificana cockayniH.R. Hogg/The Annals and Magazine of Natural History

D’abord un titre. C’est la première chose qu’on lit. Certains sont accrocheurs, mais ils peuvent manquer de nuances, et laisser entendre beaucoup plus qu’ils n’ont vraiment à dire. De plus, les retranscriptions ne sont pas toujours fidèles. Un matin (le 6 février 2017), j’ai tapé « d’après une étude » dans mon moteur de recherche, et sur la première page, j’ai cliqué sur le lien « D’après une étude, les femmes codent mieux que les hommes » qui m’a renvoyé vers le site du journal Le Parisien. De là, j’ai accédé à l’article original intitulé « Gender biais in open source : pull request acceptance of women versus men ». Il est bien question d’hommes et de femmes, mais ce que dit le titre de l’article initial, ce n’est pas que les femmes codent mieux que les hommes, juste qu’il y a une différence entre les deux sexes que les chercheurs souhaitent comparer. Aussi bien écrit que soit l’article en ligne du Parisien, on notera simplement que l’étiquette ne correspond pas complètement au produit.

Puis, des auteurs. Des humains donc. Des humains qui signent leur article et qui en assument donc la responsabilité intellectuelle. Les auteurs assurent, s’il y a lieu, le service après-vente de leur article. Une critique constructive ? Des compléments à apporter ? Des interrogations légitimes ? Les auteurs peuvent – et doivent – y répondre. Leur nom est toujours accompagné par leur affiliation, c’est-à-dire l’université ou l’institut de recherche qui les emploie.

Un article de Cell, revue réputée en biologie. Cell

Le nombre des auteurs signataires d’un article est très variable d’une étude à l’autre. Il existe un ensemble de règles définissant quelles sont les contributions de chacun qui justifient de signer. Elles sont plus ou moins suivies à la lettre, mais en général, sont considérées comme auteurs toutes les personnes qui ont élaboré l’étude, analysé et interprété les données, rédigé, apporté des critiques constructives ayant permis de renforcer la qualité de l’article. Les personnes qui ont acquis les données sont, selon les cas, considérées comme auteurs ou remerciés à la fin de l’article.

Plusieurs anonymes participent également à améliorer la valeur de l’article avant sa publication. Ce sont les reviewers, c’est-à-dire les deux ou trois spécialistes que l’éditeur contacte pour émettre un avis critique et constructif sur l’article que lui ont soumis les auteurs. Les échanges entre les auteurs, l’éditeur et les reviewers permettent de lever les ambiguïtés quant aux méthodes et aux interprétations et constituent une manière de valider la solidité des résultats et de leurs interprétations. Une sorte de contrôle qualité.

Le résumé n’est qu’un résumé

Le résumé (ou abstract) est aussi synthétique que possible. S’il est bien écrit, il informe sur ce qui a motivé l’étude, sur les grandes lignes de la méthodologie employée, il donne les principaux résultats et les principales conclusions que les auteurs en tirent, à la lumière de la question posée. Toutefois, le résumé n’est qu’un résumé. Souvent moins de 300 mots. C’est très court pour rendre compte de plusieurs mois, voire années, de travail. C’est surtout trop court pour apporter toutes les nuances nécessaires pour comprendre les résultats sans les sur-interpréter. Malgré les efforts déployés, le nombre d’articles en accès libre pour le lecteur reste encore très limité de sorte que le citoyen curieux n’a souvent accès qu’au résumé de l’article. Toutefois, on espère (qu’en est-il, vraiment ?) que ceux qui le retranscrivent pour grand public ont eu accès à sa version intégrale.

L’introduction… introduit l’article. Elle énonce le contexte de l’étude, pose les concepts et détaille les hypothèses de travail. C’est souvent la partie la plus accessible et la plus didactique de l’article. Tout simplement parce que ses auteurs veulent être bien compris par leurs lecteurs ! J’ai l’habitude de dire aux étudiants que j’encadre que si l’introduction est bien écrite, alors à la fin, le lecteur doit être en mesure de formuler lui même les hypothèses testées par les auteurs.

Ce qui fait la différence fondamentale entre un article scientifique et toute autre forme d’écrit scientifique à destination du grand public, c’est la partie matériels et méthodes. Si je lis sur mon paquet de dentifrice que 90 % des personnes interrogées sont satisfaites par le produit, alors je me demande 90 % de combien ? Est-ce que 9 personnes sur 10 interrogées ont été satisfaites, ou bien 900 sur 1000 ? Et puis satisfaites de quoi ? Sur quels critères a été évaluée la satisfaction ? Comment les utilisateurs ont-ils été interrogés (questionnaire numérique, papier, interview, téléphone…) ? Et comment ont il été choisis ? Au hasard ? Dans plusieurs régions ? Les a-t-on rémunérés ? Ont-ils reçu des offres promotionnelles en remerciement ? C’est à ce genre de questions, légitimes, que doit répondre la partie matériels et méthodes.

À elle seule, cette partie peut occuper plus du tiers de la longueur de l’article ! Voyez là comme la retranscription détaillée du protocole que les auteurs ont utilisé. Une sorte de recette de cuisine. Si cette partie est aussi détaillée, c’est pour permettre la reproductibilité de l’étude. De l’étude. Pas nécessairement du résultat.

Partant de là, on comprend bien que les résultats d’une étude ne valent rien en tant que tels s’ils ne sont pas présentés dans un contexte général et si l’on n’a qu’une idée floue de la manière dont ils ont été obtenus (comprenez : les 90 % de satisfaction de mon tube de dentifrice ne valent pas grand-chose). D’autant que la partie résultats des articles scientifique est d’une lecture que je qualifierai « d’aride ». Des chiffres. Des pourcentages. Des moyennes. Des intervalles de confiance. Des tableaux et des figures. Des faits, rien que des faits. Pas d’interprétation. Pas encore.

Première revue scientifique en France, 1665. Journal des scavans

Les interprétations ne viennent que dans la partie qualifiée de « discussion ». C’est là que les auteurs interprètent leurs résultats à la lumière des hypothèses qu’ils ont formulées. Quand je rédige la discussion de mes articles, je dois donner à mon lecteur tous les éléments qui lui permettent de replacer mes résultats dans un cadre plus large que celui de mon étude. Je lui montre en quoi l’article qu’il est en train de lire constitue une avancée dans la compréhension d’un problème. Aussi objectif que j’essaie d’être, et avec tous les garde-fous imaginables, il est permis qu’un lecteur, sur la base des résultats, ait des interprétations si ce n’est différentes, au moins nuancées. Et c’est tant mieux !

La discussion peut aller au-delà des seuls faits et proposer des interprétations et des implications plus générales, pour peu que je les argumente en confrontant mes résultats à ceux présentés dans d’autres articles. Cela implique de mentionner tout aussi bien les études qui vont dans le même sens que mes résultats que les études montrant l’exact opposé : « J’ai montré que X. Ce résultat est conforme à la théorie Y selon laquelle… et qui est confirmée par les travaux de Doe et coll. 1999, Durand et coll. 2003, Martin et coll. 2015. Cependant, mon résultat est contraire à l’idée proposée par Dupont et Dupond 2007 selon laquelle… ». Et de comparer les approches expérimentales des uns et des autres pour expliquer les points de convergence et de désaccord.

La discussion contextualise donc les résultats présentés. Implicitement, tous les auteurs de toutes les études – je crois – admettent la règle selon laquelle des résultats ne sont valables que dans le cadre théorique et méthodologique dans lequel ils ont été établis. Si des extrapolations sont possibles, elles doivent être faites avec beaucoup de prudence.

Entendons-nous bien : la spéculation est saine si elle est étayée. Elle stimule le débat. Toutefois, les perspectives et implications des études que présentent les auteurs à la fin de leurs articles (en général) ne doivent en aucun cas être confondues avec les conclusions qui, elles, se fondent sur des résultats.

Cela peut paraître anecdotique, mais il est toujours intéressant de jeter un œil aux quelques lignes de remerciements qui précèdent la liste des références. C’est notamment là que sont mentionnés les sources de financement qui ont permis de réaliser l’étude. La question n’est pas de chercher systématiquement à remettre en question le contenu d’une étude sur la seule base de sa source de financement, mais si conflit d’intérêt il y à, il devrait être indiqué dans ce paragraphe.

Exemple de déclaration d’intérêt. JAMA

De ce qui précède, on aura pu lire entre les lignes qu’en fin de compte, ce qui est nouveau dans « une étude », ce sont les résultats. Le reste de l’article emprunte à d’autres publications pour présenter le contexte, décrire des outils et des méthodes, étayer des arguments. Pour rendre à César ce qu’il lui appartient, et permettre à chacun de suivre ou de vérifier les arguments des auteurs, à chaque affirmation est associée une ou plusieurs références dont la liste est systématiquement fournie, dans le détail, à la fin de chaque article.

« Une étude », non, des études oui

La science n’est pas un catalogue de résultats publiés dans lequel chacun peut aller piocher les arguments qui abondent dans son sens ou contredisent les arguments du voisin : ce que les Anglo-saxons appellent joliment le cherry-picking. C’est un processus dynamique qui répond à un certain nombre de critères de qualité dont les plus importants sont la transparence et la reproductibilité.

La science, c’est avant tout une démarche, et une démarche exigeante. Toutes les études sont dignes d’intérêt, à condition d’être transparentes et que leur message s’appuie sur une méthodologie claire et des résultats interprétés dans la limite des conditions fixées par l’étude. Face à un contradicteur, clamer « si, c’est vrai, je l’ai lu dans une étude » n’est pas satisfaisant, parce que votre contradicteur pourra brandir une autre étude tout aussi valable. Il est normal que des études se contredisent. Si vous voulez jouer, prononcez les mots « OGM » et « bio » pendant un repas de famille, vous verrez ! C’est en confrontant des résultats opposés que l’on avance et que, petit à petit on arrive à mieux délimiter les contours d’une hypothèse, de ce qui est bien établi de ce qui fait débat.

Evitons les raccourcis

Sortir « une étude » de son contexte et la réduire à ses résultats en occultant la méthode qui a permis de l’obtenir relève au mieux de la négligence, au pire de la désinformation. Extrapoler les résultats de « une étude » en dehors du contexte dans lequel ils ont été établis relève de l’ignorance ou de la prise de position et ne devrait se faire qu’au conditionnel. Pas à l’indicatif. Et toujours en rappelant les éléments de méthodes supportant les résultats.

Qu’il n’y ait pas de méprise. Il est évident que le citoyen n’a pas à se plonger dans la lecture des études en elles-mêmes (pour peu qu’il y ait accès) et qu’il doit pouvoir faire confiance aux journalistes. Mais il est tout aussi important qu’il garde un esprit critique sur ce qu’il lit et qu’il n’oublie jamais deux choses primordiales :

  • La science est écrite par des humains, avec tous les défauts et leurs qualités.
  • Les « études » relayées par les médias et les réseaux sociaux ont fait l’objet de plusieurs digestions et régurgitations par d’autres humains. Plus il y a d’intermédiaires entre les auteurs de « une étude » et les lecteurs, moins la bouillie finale garde les saveurs du produit d’origine.

Ah, oui, et cet article aussi est rédigé par un humain, aussi (im)partial qu’un autre. Faites-en ce que vous voulez.

Source : March 12, 2017  Bastien Castagneyrol :

PCAST Releases Report on Forensic Science in Criminal Courts 

Forensic science has become a mainstay of many a TV drama, and it’s just as important in real-life criminal trials. Drawing on biology, chemistry, genetics, medicine and psychology, forensic evidence helps answer questions in the legal system. Often, forensics provides the “smoking gun” that links a perpetrator to the crime and ultimately puts the bad guy in jail.

Shows like “CSI,” “Forensic Files” and “NCIS” cause viewers to be more accepting of forensic evidence. As it’s risen to ubiquitous celebrity status, forensic science has become shrouded in a cloak of infallibility and certainty in the public’s imagination. It seems to provide definitive answers. Forensics feels scientific and impartial as a courtroom weighs a defendant’s possible guilt – looking for proof beyond a reasonable doubt.

But the faith the public and the criminal justice system place in forensic science far outpaces the amount of trust it deserves.

For decades, there have been concerns about how the legal system uses forensic science. A groundbreaking 2009 report from the National Academy of Sciences finally drew the curtain back to reveal that the wizardry of forensics was more art than science. The report assessed forensic science’s methods and developed recommendations to increase validity and reliability among many of its disciplines.

These became the catalyst that finally forced the federal government to devote serious resources and dollars to an effort to more firmly ground forensic disciplines in science. After that, governmental agencies, forensic science committees and even the Department of Defense responded to the call. Research to this end now receives approximately US$13.4 million per year, but the money may not be enough to prevent bad science from finding its way into courtrooms.

This fall, the President’s Council of Advisors on Science and Technology (PCAST) released its own report on forensic science. It’s a more pronounced acknowledgment that the discipline has serious problems that require urgent attention. Some scientific and legal groups are outraged by or doubtful of its conclusions; others have praised them.

As someone who has taught forensic evidence for a decade and dedicated my legal career to working on cases involving forensic science (both good and bad), I read the report as a call to address foundational issues within forensic disciplines and add oversight to the way forensic science is ultimately employed by the end user: the criminal justice system.

Is any forensic science valid?

The President’s Council of Advisors on Science and Technology recognized ongoing efforts to improve forensic science in the wake of the 2009 NAS report. Those efforts focused on policy, best practices and research around forensic science, but, as with any huge undertaking, there were gaps. As PCAST noted, forensic science has a validity problem that is in desperate need of attention.

PCAST focused on what’s colloquially termed “pattern identification evidence” – it requires an examiner to visually compare a crime scene sample to a known sample. PCAST’s big question: Are DNA analysis, bite marks, latent fingerprints, firearms identification and footwear analysis supported by reproducible research, and thus, reliable evidence?

What does a firing pin indentation on a bullet really tell us? Macroscopic Solutions, CC BY-NC

They were looking for two types of validity. According to PCAST, foundational validity means the forensic discipline is based on research and studies that are “repeatable, reproducible, and accurate,” and therefore reliable. The next step is applied validity, meaning the method is “reliably applied in practice.” In other words, for a forensic discipline to produce valid evidence for use in court, there must be (1) reproducible studies on its accuracy and (2) a method used by examiners that is reproducible and accurate.

Among the forensic science they assessed, PCAST found single-sourced DNA analysis to be the only discipline that was valid, both foundationally and as applied. They found DNA mixture evidence – when DNA from more than one person is in a sample, for instance from the victim and the perpetrator, multiple perpetrators or due to contamination – to be only foundationally valid. Same with fingerprint analysis.

Firearms identification had just the potential for foundational validity, but the research that could support it hasn’t been done yet. Footwear analysis lacked studies even showing potential for foundational validity. And bite mark analysis has a low chance of achieving any validity; the PCAST report advised “against devoting significant resources” to it.

All these types of evidence are widely used in thousands of trials each year. Many additional cases never even go to trial because this supposedly definitive evidence seems damning and compels defendants to plead guilty. But the lack of reliable science supporting these disciplines undermines the evidence which, in turn, undermines criminal convictions.

Risks of lacking validity

When forensic methods are not validated but nevertheless perceived as reliable, wrongful convictions happen.

For example, the field of forensic odontology presumes that everyone has a unique bite mark. But there’s no scientific basis for this assumption. A 2010 study of bite marks from known biters showed that skin deformations distort bite marks so severely that current methods of analysis could not accurately include or exclude a person based on the pattern left by their teeth.

In 1986, Bennie Starks was convicted of rape and other crimes after forensic odontology experts testified he was the source of a bite mark on the victim. In 2006, DNA test results showed Starks could not have been the perpetrator. Starks spent 20 years in prison for a crime he did not commit because of faulty evidence from an unreliable discipline. More recently, the Texas Forensic Science Commission recommended a flat-out ban on bite mark evidence.

What happens if the forensic evidence that convicted you is flimsy? West Midlands Police, CC BY-SA

Like in Starks’ case, questionable forensic evidence plays a significant role in at least half of overturned convictions, according to the Innocence Project. Once a verdict comes in, it becomes a Sisyphean task to undo it – even if newly discovered evidence undermines the original conviction. It’s next to impossible for people once convicted to get their cases reconsidered.

At the moment, only two states (Texas and California) permit a defendant to appeal a conviction if the scientific evidence or the expert who testified is later discredited. More laws like these are needed, but it’s politically a hard sell to grant more rights and avenues of appeal to convicts. So even if the science is undermined or completely discredited, a prisoner is often at the mercy of a court as it decides whether to grant or deny an appeal.

What should be admissible?

The PCAST report recommended judges consider both the foundational and applied validity of the forensic discipline that produced any evidence before admitting expert testimony. This includes ensuring experts testify to the limitations of the analysis and evidence. For example, the justice system traditionally considers fingerprint evidence as an “identification” – for instance, the thumbprint recovered from the crime scene was made by the defendant’s thumb. No one ever testifies that there are little scientific data establishing that fingerprints are unique to individuals. The same holds true for other types of pattern identification evidence such as firearms, toolmarks and tire treads.

The National District Attorneys Association (NDAA) was critical of the PCAST report. It countered that there actually is scientific data validating these forensic fields, but members of PCAST did not adequately consult subject-matter experts. The NDAA also worried that if courts required stronger scientific validity before allowing evidence into court, it would hamstring the entire investigative process.

The NDAA concluded that judges should continue to be the ones who decide what makes evidence reliable and thus admissible. It asserted that the stringent requirements to become expert witnesses, along with the ability to cross-examine them in court, are enough to guarantee reliable and admissible evidence.

But should the admissibility of scientific processes – which ought to be grounded in their proven ability to produce reliable evidence – be determined by people who lack scientific backgrounds? I would argue no.

Pattern identification evidence shouldn’t be excluded from cases wholesale, but forensic evidence needs to be placed into context. When the human eye is the primary instrument of analysis, the court, the attorneys and the jury should be fully aware that certainty is unattainable, human error is possible, and subjectivity is inherent.

Reliance upon the adversary system to prevent wrongful convictions and weed out junk science requires a leap of faith that ultimately undermines the integrity of the criminal justice system. Counting on cross-examination as an effective substitute for scientific rigor and research can’t be the answer (although it has been for more than a century).

The PCAST report is yet another wake-up call for the criminal justice system to correct the shortcomings of forensic science. We demand that guilt be proven beyond a reasonable doubt; we should also demand accurate and reliable forensics. Without improvement, we can’t trust forensic science to promote justice.

Source : PCAST Releases Report on Forensic Science in Criminal Courts |

La méthode des «Experts», science ou sorcellerie?

La méthode des «Experts», science ou sorcellerie?

Une commission de savants américains a rendu un rapport accablant sur les méthodes de la police scientifique et de la médecine légale. Qu’en disent les spécialistes romands?

La science forensique, ce cocktail imparable d’ADN, de cadavres disséqués et de traces de semelles qui se déploie triomphalement dans des séries TV telles que Les Experts, ne serait-elle finalement pas si scientifique que ça? C’est ce que qu’avance un rapport rendu en septembre aux Etats-Unis par les savants rassemblés au sein du Conseil du Président sur la science et la technologie (PCAST).

Exemples? L’analyse des empreintes digitales serait «une méthode purement subjective» dont les tribunaux sous-estimeraient la marge d’erreur, influencés par la «prétention d’infaillibilité» collant à cette technique. L’examen d’une morsure, censée correspondre de façon unique à la dentition qui l’a infligée, ne permettrait pas d’identifier un individu avec une «exactitude raisonnable».

L’étude des rayures laissées par une arme sur une balle a la réputation d’être une méthode d’une «précision presque absolue», mais «sa validité fondamentale n’a pas été établie»… La science forensique s’apparenterait ainsi à un «art», voire à une «sorcellerie», plus qu’à une véritable science, résume Jessica Gabel Cino, membre du Bureau des normes de l’Académie américaine des sciences forensiques, dans un article du site The Conversation.

«Une problématique spécifique aux Etats-Unis»

«C’est une problématique spécifique aux Etats-Unis, où le système est très différent du nôtre: il produit des avis tranchés, en noir et blanc, sans nuances de gris. Vous n’entendrez jamais un expert américain dire: on ne peut pas répondre. Chez nous, c’est régulièrement le cas», commente Silke Grabherr, directrice du Centre universitaire romand de médecine légale. «En Suisse, le procureur nomme des experts lors de l’enquête, avec un mandat qui est à la fois à charge et à décharge de la personne mise en cause. Dans le système juridique américain, les experts sont mandatés – et instrumentalisés – par les parties. Ce qui n’est pas bon pour une saine administration d’éléments scientifiques», ajoute Christophe Champod, professeur à l’Ecole des sciences criminelles de l’Université de Lausanne.

Empreintes et scanners mortuaires

La subjectivité des experts est en point de mire du rapport du PCAST. «En réalité, elle est toujours présente, rétorque Silke Grabherr. Une autopsie est quelque chose de subjectif: le résultat dépend de la personne qui la fait. En Suisse, on en est conscient. C’est une des raisons pour lesquelles, en médecine légale, un expert ne travaille jamais en solo: on est toujours rattaché à un institut et on est au moins deux pour chaque affaire. On sauvegarde la documentation et on rediscute les résultats en équipe.» La documentation inclut aujourd’hui l’imagerie médicale post-mortem, une spécialité de l’institut et de sa directrice. «Lorsqu’on fait une autopsie, on peut examiner correctement le corps une seule fois. Impossible de répéter l’opération, car les organes se retrouvent coupés. Un scan, c’est-à-dire un enregistrement numérique de l’extérieur et de l’intérieur du corps, peut en revanche être vu et revu par plusieurs spécialistes. Bien sûr, un rapport rendu sur la base de l’imagerie peut être tout aussi faux qu’une autopsie mal faite. Mais l’erreur est récupérable, car les données restent disponibles.»

À la quête d’une certitude fantasmatique, les experts romands préfèrent l’exploration consciente du champ des probabilités. «Prenez la dactyloscopie, l’analyse des empreintes digitales. Il y a une manière d’en présenter les résultats qui laisse entendre qu’il s’agit là d’un absolu. En ce qui me concerne, je m’évertue depuis des années à enseigner, tant aux étudiants qu’aux magistrats, que l’association entre une empreinte et une personne n’est pas une certitude, mais qu’elle s’entoure de probabilités. On connaît d’ailleurs un certain nombre d’affaires où il y a eu de fausses associations», reprend Christophe Champod.

Du pif aux mathématiques

Comment gérer cette incertitude? «Quand j’ai commencé dans la police scientifique, il y a 25 ans, on travaillait au pif et on donnait notre avis: c’est lui, ce n’est pas lui… Le risque d’erreur était immensément plus grand. Aujourd’hui, on a adopté une approche mathématique de l’évaluation des indices et on a mis au point une échelle verbale qu’on est en train d’introduire dans tous les services romands», répond Olivier Guéniat, chef de la police judiciaire neuchâteloise et responsable de l’harmonisation en cours des procédures de police scientifique en Suisse romande.

Exemple: «On a une analyse d’ADN qui met en cause telle personne dans telle affaire. On dira que la correspondance génétique entre l’individu et la trace trouvée sur les lieux soutient extrêmement fortement l’hypothèse que c’était lui, plutôt qu’une personne inconnue, qui était la source de cette trace. L’expression extrêmement fortement signifie que, connaissant la répartition statistique des marqueurs génétiques dans la population, il est plus d’un milliard de fois plus probable que l’individu en question en soit la source, plutôt qu’un inconnu. Ce n’est pas du 100%: la certitude n’existe pas. Il s’agit dès lors d’adopter une philosophie d’honnêteté pour évaluer dans quelle mesure un indice a une valeur probante.»

En Suisse, une formation de haut niveau

Le rapport du PCAST suggère de confier un nombre croissant d’examens à des algorithmes. Les experts romands préfèrent, eux, continuer à tabler sur une formation de haut niveau. «En Suisse, il faut six ans de formation pour devenir médecin légiste, relève Silke Grabherr. Ailleurs, en général, on se forme sur le tas en passant un ou deux ans, à la sortie de l’université, dans un centre qui pratique des autopsies… Les meilleures compétences mondiales en la matière se trouvent dans les pays germanophones, Suisse, Allemagne et Autriche. La France s’apprête à adopter le modèle suisse à partir de 2017. En Allemagne, des coupes budgétaires ont quelque peu fait baisser la qualité des services, mais on est en train de relancer un plan de formation, en reprenant plusieurs points du programme suisse.»

Christophe Champod, qui a été auditionné par le PCAST pendant l’élaboration du rapport, sera, lui, à Washington en janvier pour présenter à la National Commission on Forensic Science «une vision suisse sur d’autres manières de concevoir la police scientifique». La façon de produire un témoignage d’expert aux USA, telle qu’elle se donne à voir dans la série TV documentaire Making a Murderer, est à ses yeux «terrifiante: j’utilise la série avec mes étudiants pour leur montrer tout ce qu’il ne faut pas faire».

Expertise à vendre

Que conclure? «La question ne se poserait pas en ces termes aux Etats-Unis si en amont, il n’y avait pas toutes ces erreurs judiciaires, souvent dues à de pseudo-experts qui ne disposent pas du background nécessaire pour être fiables, et à un système juridique où on peut littéralement acheter les experts et leurs conclusions», analyse Olivier Guéniat. Entre-temps, les sciences forensiques doivent résister à d’autres assauts.

«Il y a çà et là des études qui continuent à être menées, prétendant qu’on peut lire le caractère criminel d’une personne sur les traits de son visage: telle épaisseur des sourcils, telle forme des lèvres… C’est de la science morte, qui prend des corrélations pour des causalités. Or, passer d’une corrélation à une causalité relève du raisonnement, ce ne sont pas des mathématiques. La justice humaine doit continuer à faire appel à l’intelligence, à la réflexion, à la contextualisation. Et au raisonnement qui exploite les zones grises.»

Source : La méthode des «Experts», science ou sorcellerie? - Le Temps

Les mathématiques du café-filtre 

Les secrets mathématiques d'un bon café filtre

Comment tirer le maximum des grains de café ? S'il reste utile de demander leur avis aux meilleurs baristas du monde, la réponse viendra peut-être de la science.

Ceci est une tasse de café

Le saviez-vous ? Votre tasse de café ne comprend pas moins de 1800 composés chimiques différents.

CAFÉ FILTRE. Grand mère n'est pas la seule à savoir faire du bon café : les mathématiques aussi ont leur mot à dire. Cafetières à filtre, à piston, ou encore machines à expresso... ce ne sont pas les moyens qui manquent pour se concocter un petit noir. Mais comment optimiser des facteurs comme les dimensions et la forme de la cafetière à filtre, la température de l'eau, ou encore l'aération du café afin de doser au plus subtil la concentration en café du brevage ?

En fait, le tirage du café s'assimile à une extraction solide-liquide, procédé qu'on sait modéliser en termes mathématiques... Et c'est là que l'irlandais Kevin Moroney et son équipe entrent en jeu. Leur dernière publication, parue dans le SIAM Journal on Applied Mathematics, présente un modèle multiscalaire (c'est à dire valide à petite comme à large échelle) capable de décrire assez finement l'extraction du café à travers son filtre... et ce en prenant en compte tous les paramètres utiles, y compris la taille des grains de café et leur porosité, c'est dire le niveau de précision.

À haute pression dans un percolateur à expresso ou à pression atmosphérique dans un simple entonnoir à café filtre, servir un café repose sur les mêmes bases chimiques que l'extraction solide-liquide.  © K. Moroney et al.

Des modèles forts de café

"La plupart des modèles mathématiques décrivant l'extraction du café sont simplifiés, car ils considèrent que celle-ci se produit dans un système homogène", explique Kevin Moroney, auteur principal. Une approximation qui est peut-être valide pour les très grandes cuves dans lesquelles on brasse le café avant de le transformer en café lyophilisé, mais pas pour les appareils individuels. "Notre modèle, même s'il opère aussi certaines approximations, s'intéresse à la vitesse d'extraction en la décrivant à partir des caractéristiques des grains de café, et notamment leur porosité. De quoi prédire l'efficacité d'une cafetière à partir des caractéristiques des grains de café, de la température de l'eau et du type d'équipement utilisé", poursuit-il.

L'idée d'une équipe de mathématiciens mettant le café en équations peut prêter à sourire, en particulier lors de la pause café. Mais contrairement aux apparences il s'agit d'un enjeu sérieux pour les fabricants, l'un des auteurs travaillant notamment pour Philips Research. "Les mécanismes relatifs aux machines à expresso et aux cafetières industrielles ont été bien étudiés, mais les mathématiques appliquées s'étaient jusque là peu penchées sur les cafetières à filtre, qui représentent pourtant 55 % des machines à café vendues en Europe", justifie encore Kevin Moroney. Et si demain, les cafetières à filtre individuelles devenaient intelligentes, et capable de concocter la tasse idéale, celle la plus adaptée à votre goût ? Nespresso n'a qu'a bien se tenir.

Testing the “Stick-on-the-wall Spaghetti rule”

Testing the “Stick-on-the-wall Spaghetti rule”

Testing the “Stick-on-the-wall Spaghetti rule”

by Simone Montangero and Francesca Vittone and Institute for Complex Quantum Systems, Ulm University Ulm, Germany

There is always a moment when Italians abroad come across a local who explains to them a simple way of knowing how to cook Spaghetti “al dente”: throw them to the wall, if they stick they are ready to be eaten. After the first shock, they typically realize that this rule is worldwide known, while it is completely unknown in Italy where pasta is simply tasted. Being scientists we aim to test this rule to be able to refuse or accept it on solid ground. Moreover, we use this occasion to approach another common problem of scientists, that is, to explain to their young children what their parents do at work: we enrolled a class of preschoolers and show them how to experimentally test a belief with scientific rigor. We hope also to contribute to reduce the frustration of other scientists when their kids ask them about their jobs: long explanations typically result in a frustrated kid going away mumbling something about firemen or bus drivers…


Figure 1: Typical results of the experiment, with stuck spaghetti highlighted in green, failures in red.

Experiment. We test the Stick On the Wall Spaghetti (SOWS) rule with a box of standard Spaghetti “Barilla”, official cooking time 9 minutes as reported on the box. The Spaghetti are cooked for 3, 6, and 9 minutes, and then are thrown against three different kind of walls: a kitchen wall (KW), a window (F), and a whiteboard (T). We have a team of 13 throwers, preschool kids of ages between 5 and 7 years. Each thrower throws one spaghetti for each different cooking time and wall kind, for a total of 13x3x3=107 launches, which are subsequently recorded as successfully stuck or not. Figure 1, reports a typical experimental result together with typical experimental conditions. The collected raw data are reported in Figure 2, for different cooking times and wall types.


Figure 2: Histogram of the experiments results (0 means failure to, 1 success), for the three different wall types (from left to right: window, kitchen and whiteboard), different cooking times (3, 6, and 9 minutes: violet, blue and green).

The statistical analysis of the experimental data acquisition is presented in Figure 3 where we report the average probability to stick (ratio between the number of stuck spaghetti and the total number of thrown ones) as a function of the cooking time for the three different walls. As expected, in all scenarios the probability to stick (mostly) increases with time. We interpret this as a signal that no major failure occurred in our experimental test. More interesting, after 9 minutes the probability to stick is compatible to 100% within the statistical error in the three cases (in the whiteboard case it is almost exactly one) strongly supporting the SOWS rule. However, the probabilities to stick are of about 50% in all other scenarios (slightly above at six minutes, more spread at three minutes but in all cases with a big standard deviation of about 30%). This implies that a cooker with a simple test with one single spaghetti thrown to the wall cannot acquire any information: in case it sticks the cooker cannot distinguish between any of the cooking time.


Figure 3: Average probability to stick as a function of time for different wall types: Kitchen (blue), Window (green), Whiteboard (Yellow). Standard deviation is of the order of 0.5 for times 3 and 6 minutes, while it drops to about 0.3 in the first two cases and to 0 in the Whiteboard one.

Discussion. A special care has to be paid to the scenario with the whiteboard as it displays an unexpected non-monotonic result: the probability to stick decreases between 3 and 6 minutes. To investigate such behavior and be sure we are not introducing some unwanted bias in our investigation, we analyzed the average probability of success and standard deviation of each thrower, as reported in Figure 4. As it can be seen, these two quantities are homogenous among all throwers but one (our youngest brave thrower), who has almost 100% probability of success. Assuming that this is not a statistical fluctuation but a bias for which data shall be corrected for, almost cures the non-monotonic behavior of the whiteboard data. However, it does not change the overall conclusions of our work, and thus we consider this a strong signal that our data acquisition is bias free.


Figure 4: Average probability (blue) standard deviation (green) for all launches of each thrower.

Conclusions. In conclusion, the SOWS rule shall be refused in any “reasonable” kitchen or restaurant unless a huge amount of spaghetti is wasted in statistical tests. It is indeed more efficient to rely on the cooking time reported on the box. An alternative possibility to avoid waste is that the spaghettis are eaten after being stuck on the wall or fallen onto the floor as we have experienced in our experiment! We stress that this is a clear example where the “common knowledge” shall be carefully used and thus we urge the reader never to believe simple truths even if widespread accepted. We think that our study demonstrated once more the importance of the scientific method, which can be used to improve all important steps of our life starting from a good spaghetti meal.

Acknowledgments. This work has been part of a program for preschooler kids to explain how their parents spend time at work (but not always throwing spaghetti!) and to introduce them to the scientific method. We thank the teachers and the throwers of the preschool class of the kindergarden for their dedication, passion and throwing precision.

Pourquoi les incompétents se croient si doués ? (effet Dunning-Kruger) 

Pourquoi les incompétents se croient si doués

Un jour de 1995, McArthur Wheeler dévalisa deux banques de Pittsburgh (Pennsylvanie) à visage découvert. Même pas peur. Le soir même, peu de temps après que les images prises par les caméras de surveillance eurent été diffusées au journal télévisé de 23 heures, l'homme fut assez logiquement reconnu, dénoncé, arrêté. Quand la police lui montra les enregistrements, Wheeler le voleur fut frappé de stupéfaction. « Pourtant, je portais du jus », marmonna-t-il. Apparemment, celui qui se croyait si malin s'était persuadé que le jus de citron, bien pratique pour fabriquer de l'encre invisible, allait aussi rendre son visage indétectable par la vidéosurveillance et s'en était barbouillé la trogne.

Si David Dunning et Justin Kruger, deux psychologues américains de l'université Cornell, ont évoqué la mésaventure de Mister Wheeler en préambule de l'étude qu'ils ont publiée en 1999 dans le Journal of Personality and Social Psychology, ce n'est pas parce qu'ils avaient l'intention d'y vérifier les qualités du jus de citron, mais parce qu'ils souhaitaient comprendre pourquoi les personnes incompétentes – comme l'était ce maladroit détrousseur de banques digne d'un roman de Donald Westlake – peuvent avoir l'impression que leurs mauvaises décisions sont excellentes. Pourquoi « l'ignorance engendre plus souvent la confiance que ne le fait la connaissance », pour reprendre un célèbre constat du grand observateur de ses congénères qu'était Charles Darwin.

Disons-le d'emblée, la réponse à cette question n'est pas à chercher du côté de l'intelligence – songez à votre supérieur hiérarchique et à certains chefs d’État, que vous considériez comme des non-crétins tant qu'ils n'avaient pas atteint leur seuil d'incompétence. David Dunning et Justin Kruger ont émis l'hypothèse que, chez les incompétents, existait un biais psychologique qui les poussait à surestimer leurs capacités et leurs performances. Pour mettre cette idée à l'épreuve, ils ont élaboré une batterie d'expériences destinées à tester des « cobayes » dans des domaines nécessitant un minimum de savoir et de finesse : l'humour (avec des blagues notées par des comédiens professionnels), le raisonnement logique et la grammaire.

A chaque fois, les participants devaient faire un exercice et auto-évaluer leur prestation. Quel que fût le domaine abordé, les résultats ont été d'une constance remarquable. Systématiquement, les sujets les moins aptes surestimaient de beaucoup leur capacité à réussir l'épreuve ainsi que le nombre de questions auxquelles ils avaient répondu juste. A l'inverse, les plus doués des participants avaient un peu tendance à se dévaluer. Plusieurs semaines après le test portant sur la grammaire, les auteurs de l'étude ont invité les meilleurs mais aussi les plus nuls des participants à une deuxième session au cours de laquelle ils avaient pour mission de corriger les copies de cinq autres personnes et... de se réévaluer après avoir vu leurs réponses. Il advint ce qui devait arriver : les « champions » s'aperçurent qu'ils étaient meilleurs qu'ils ne le croyaient tandis que les cancres furent incapables de reconnaître la compétence des autres et de se remettre en question. Tout allait bien pour eux. Contents, contents, contents...

Depuis cette étude, ce biais dans l'auto-évaluation des incompétents, cette « surconfiance » qu'ils ont en leur capacité, porte le nom d'effet Dunning-Kruger. Les deux chercheurs américains ont désormais, en la personne de leur nouveau président, un sujet idéal pour tester leur théorie.

Source : « Improbablologie » de Pierre Barthélémy dans le supplément Science & Médecine du Monde 

Du sel pour refroidir

Du sel pour refroidir

On montre que l’ajout de sel provoque l’abaissement de la température de solidification de l’eau en introduisant dans un mélange sel-glace un tube à essais dans lequel l’eau gèle.

Fiche d’accompagnement de l’expérience:


Adresse de la video :

  • un bloc de glace
  • du sel de cuisine
  • une caméra infra rouge
Montage et réalisation

Déposer une cuillère de gros sel sur le bloc de glace.

Constater que la partie du sel en contact avec le bloc de glace descend rapidement en température pour atteindre plus ou moins rapidement -19°C.


La dissolution du sel dans l’eau absorbe de la chaleur.

Pour dissoudre 1 g de sel il faut apporter une quantité de chaleur de 66 joules.

Le sel, en contact avec le bloc de glace, prend cette quantité de chaleur au bloc de glace, et on constate sur la vidéo que l’interface sel-glace devient très froide.

La température du mélange ne cesse alors de baisser pendant plusieurs minutes.

Un mélange sel-glace permet donc d’atteindre des températures très basses: de l’ordre de -19°C.

Revenons plus en détail sur ce phénomène :

L’eau pure passe de l’état solide à l’état liquide et inversement à 0°C: on appelle cette température la température de fusion de la glace et de l’eau (température qui permet le passage d’un état liquide à un état solide).

Si on a un mélange eau pure + glace pure et que la température ambiante est inférieure à 0°C, la glace ne pourra se refroidir que lorsque l’eau se sera « transformée » en glace : le mélange reste donc à 0°C le temps que l’eau devienne glace, et peut ensuite se refroidir pour s’adapter à la température ambiante (-5°C par exemple).

Le processus est le même si on a un mélange glace / eau et que la température ambiante est supérieure à 0°C (il faut que la glace fonde pour que le mélange se réchauffe ensuite).

Tout cela n’est vrai que s’il s’agit d’eau pure. En effet, si des substances sont ajoutées à l’eau, la température de fusion a tendance à baisser en fonction du type d’impuretés et de la quantité présente dans l’eau.

L’eau salée à des propriétés différentes de l’eau pure, et a une température de fusion inférieure à celle de l’eau.

Lorsque l’eau est composée de 10% de sel, elle gèle aux alentours de -7°C.

L’eau salée qui contient 23% de sel détient le record et gèle à -21°C.

Lorsque l’on répand du sel sur la neige ou la glace, celui-ci se dissout avec l’eau.

Cependant, pour se dissoudre dans l’eau, le sel a besoin d’énergie, et va donc puiser la « chaleur » de la glace, qui va alors se refroidir. On appelle cela une réaction endothermique, c’est-à-dire que le sel absorbe de la chaleur pour se dissoudre, chaleur qu’il trouve dans la glace qui se refroidit.

Mais l’eau salée a une température de fusion inférieure à celle de l’eau pure et gèle en dessous de 0°C.

Le mélange eau/ sel ne pourra pas devenir solide car la température du mélange remonte ensuite pour s’adapter à l’air ambiant (-2°C par exemple) et reste liquide, car elle ne peut se solidifier qu’à -21°C.

Et ainsi la neige ou la glace fond.

Pourquoi répand-on du sel sur les routes en hiver ? d’après(Didier Perret)

Le sel fait fondre la glace (qui est de l’eau sous forme solide) mais en même temps que la glace fond, la température du mélange glace-sel descend fortement

Lorsque la température descend en-dessous de 0°C, l’eau sous forme liquide (y compris l’humidité ambiante) se transforme en eau solide, la glace.

La différence fondamentale entre l’eau liquide et l’eau solide est la manière dont les molécules d’eau individuelles s’organisent: dans l’eau liquide, les molécules (constituées d’un atome d’oxygène auquel sont liés deux atomes d’hydrogène) sont relativement libres d’effectuer des mouvements les unes par rapport aux autres; elles se lient entre elles puis défont rapidement ces liaisons, et ainsi de suite.

Lorsque la température descend puis devient inférieure à 0°, ces mouvements ralentissent jusqu’à cesser; les molécules d’eau se lient alors de manière suffisamment durable entre elles, de manière symétrique, pour que le système se fige sous forme de glace, de l’eau solide.

Si le processus de refroidissement est lent, on observe la création de magnifiques cristaux de glace, car les liaisons entre molécules individuelles ont le temps de se former de manière très symétrique à large échelle.

Prenons à présent du sel de cuisine (chlorure de sodium); lorsqu’on épand ce sel sur une route verglacée (ou sur les glaçons du congélateur), les molécules de sel se dissocient en leurs ions sodium et chlorure, exactement comme lorsque l’on introduit du sel de cuisine dans un verre d’eau. Ces ions apprécient la proximité des molécules d’eau et perturbent localement l’arrangement de ces dernières.

Atomes d’hydrogène et d’oxygène

Ions sodium et chlorure

Une représentation du processus de dissolution du sel de cuisine (chlorure de sodium) dans l’eau.

Le chlorure de sodium est formé de l’assemblage régulier d’ions chlorures chargés négativement et d’ions sodium chargés positivement.

Si l’on observe ce qui se passe à l’échelle microscopique lorsqu’un grain de sel (qui contient des milliards de milliards de molécules) arrive en contact avec la surface de la glace, les atomes de l’eau solide et les ions du grain de sel se réarrangent pour former une nouvelle phase (H2O×NaCl; on l’appelle un eutectique ), qui fond et qui produit une fine pellicule d’eau liquide à la surface de la glace.

Le processus se propage alors en profondeur dans le reste de la glace, puisque les ions dans le film liquide entrent en contact avec la glace encore présente sous le film liquide. Lentement, l’eau solide se transforme donc en eau liquide… et salée. Le verglas fond donc sur la route.

On pourrait penser que lorsque la glace fond sous l’action du sel, la température monte au-dessus de 0°C. Eh bien il n’en est rien, au contraire !

Pour se dissocier et arracher des molécules individuelles d’eau à la glace, les molécules de sel ont besoin d’énergie, qu’elles trouvent en l’extirpant des molécules d’eau qui constituent les cristaux de glace. Et lorsque l’eau solide se fait prendre son énergie, sa température diminue fortement; en jargon spécialisé, on dit que ce processus est endothermique (absorption de l’énergie du système).

On peut faire l’expérience très simplement à la maison : broyer rapidement en paillettes grossières des cubes de glace et introduire rapidement un thermomètre dans ces paillettes (la température est de 0°C), puis ajouter rapidement du sel de cuisine sur les paillettes et mélanger avec le thermomètre pour faciliter le contact glace-sel. Au fur et à mesure que la glace fond, on constate que la température descend; théoriquement, on peut atteindre jusqu’à -22°C ! En conclusion, lorsque le sel fait fondre la glace, il la fait fortement refroidir, contrairement à ce qu’on pourrait penser.

On peut remplacer le sel de cuisine par un autre sel (p.ex. chlorure de calcium ou chlorure de magnésium) pour faire fondre la glace sur les routes ; le même processus de dissolution est observé, mais le résultat est un peu différent, puisqu’une molécule de chlorure de calcium ou de chlorure de magnésium produit deux ions chlorure pour un ion calcium ou magnésium ; dans ce cas, la présence d’un plus grand nombre d’ions permet d’accélérer la fonte de la glace.

Voir aussi :

Source :

Pourquoi met-on du sel sur les routes en hiver?

Pourquoi met-on du sel sur les routes en hiver?

Pour répondre simplement, le sel fait fondre la glace (qui est de l'eau sous forme solide), ce qui est bien pratique pour tous les usagers de la route. Mais ce qui est paradoxal, c'est qu'en même temps que la glace fond, la température du mélange glace-sel descend fortement! Pour les détails, procédons par étapes: d'abord la glace, puis le sel, et finalement le mélange glace-sel.

Lorsque la température descend en-dessous de 0°C, l'eau sous forme liquide (y compris l'humidité ambiante) se transforme en eau solide, la glace. C'est ce qu'on observe lorsqu'on place de l'eau dans un congélateur.

La différence fondamentale entre l'eau liquide et l'eau solide est la manière dont les molécules d'eau individuelles s'organisent: dans l'eau liquide, les molécules (constituées d'un atome d'oxygène auquel sont liés deux atomes d'hydrogène) sont relativement libres d'effectuer des mouvements les unes par rapport aux autres; elles se lient entre elles puis défont rapidement ces liaisons, et ainsi de suite.

Lorsque la température descend puis devient inférieure à 0°, ces mouvements ralentissent jusqu'à cesser; les molécules d'eau se lient alors de manière suffisamment durable entre elles, de manière symétrique, pour que le système se fige sous forme de glace, de l'eau solide.

Si le processus de refroidissement est lent, on observe la création de magnifiques cristaux de glace, car les liaisons entre molécules individuelles ont le temps de se former de manière très symétrique à large échelle (Entendons-nous: dans le monde des molécules, une large échelle reste microscopique…).

Prenons à présent du sel de cuisine (chlorure de sodium); lorsqu'on épand ce sel sur une route veglacée (ou sur les glaçons du congélateur), les molécules de sel se dissocient en leurs ions sodium et chlorure, exactement comme lorsque l'on introduit du sel de cuisine dans un verre d'eau. Ces ions apprécient la proximité des molécules d'eau et perturbent localement l'arrangement de ces dernières.

Si l'on observe ce qui se passe à l'échelle microscopique lorsqu'un grain de sel (qui contient des milliards de milliards de molécules) arrive en contact avec la surface de la glace, les atomes de l'eau solide et les ions du grain de sel se réarrangent pour former une nouvelle phase (H2O×NaCl; on l'appelle un eutectique), qui fond et qui produit une fine pellicule d'eau liquide à la surface de la glace.

Le processus se propage alors en profondeur dans le reste de la glace, puisque les ions dans le film liquide entrent en contact avec la glace encore présente sous le film liquide. Lentement, l'eau solide se transforme donc en eau liquide… Et salée. Le verglas fond donc sur la route.

On pourrait penser que lorsque la glace fond sous l'action du sel, la température monte au-dessus de 0°C. Eh bien il n'en est rien, au contraire!

Pour se dissocier et arracher des molécules individuelles d'eau à la glace, les molécules de sel ont besoin d'énergie, qu'elles trouvent en l'extirpant des molécules d'eau qui constituent les cristaux de glace. Et lorsque l'eau solide se fait prendre son énergie, sa température diminue fortement; en jargon spécialisé, on dit que ce processus est endothermique (absorption de l'énergie du système).

On peut faire l'expérience très simplement à la maison: broyer rapidement en paillettes grossières des cubes de glace et introduire rapidement un thermomètre dans ces paillettes (la température est de 0°C), puis ajouter rapidement du sel de cuisine sur les paillettes et mélanger avec le thermomètre pour faciliter le contact glace-sel. Au fur et à mesure que la glace fond, on constate que la température descend; théoriquement, on peut atteindre jusqu'à -22°C! En conclusion, lorsque le sel fait fondre la glace, il la fait fortement refroidir, contrairement à ce qu'on pourrait penser.

On peut remplacer le sel de cuisine par un autre sel (p.ex. chlorure de calcium ou chlorure de magnésium) pour faire fondre la glace sur les routes; le même processus de dissolution est observé, mais le résultat est un peu différent, puisqu'une molécule de chlorure de calcium ou de chlorure de magnésium produit deux ions chlorure pour un ion calcium ou magnésium; dans ce cas, la présence d'un plus grand nombre d'ions permet d'accélérer la fonte de la glace.

Adresse video :

Voir aussi : CONGÉLATION DE L’EAU SALÉE ; Saler l’eau des nouilles ?

Source : Pourquoi met-on du sel sur les routes en hiver? - - découverte - science et environnement - maths, physique, chimie

Saler l'eau des nouilles ?

Pourquoi faut-il saler l'eau de cuisson des nouilles ?

Je le sens, encore une question qui vous fige en plein coeur de la nuit, couvert de sueur, et vous empêche définitivement de vous rendormir. Tous les livres de cuisine le disent, il faut saler l'eau des nouilles pour les cuire. Mais personne ne nous dit pourquoi. Alors ça énerve.

Il n'y a pas le choix, il faut imaginer des raisons, et les tester scientifiquement...

Idée 1: L'eau salée bout plus vite que l'eau douce, alors on gagne du temps
Idée 2: L'eau salée bouillante est plus chaude que l'eau douce bouillante, alors ça cuit plus vite.

Donc, l'expérimentation est toute trouvée. Une source de chaleur, deux volumes d'eau identiques, on ajoute du sel dans l'un des deux. On chauffe chacune des deux eaux en suivant leur température au cours du temps. On ne va quand même pas se laisser marcher dessus par des nouilles.

Voici les résultats de l'expérience:

chauffage d'eau salée
Voilà donc la température en fonction du temps pour de l'eau salée et de l'eau douce. Des différences sont visibles...

Deux observations sautent aux yeux des plus myopes d'entre nous:

1/ L'eau douce chauffe plutôt plus vite que l'eau salée (ce qui donne une claque à notre 1ère idée au passage). Après coup, quand on y pense, cela paraît logique puisque on chauffe plus de matière que dans le cas de l'eau douce. Rappelez vous: "deux volumes d'eau identiques, plus du sel dans l'un d'eux...". Il est normal que plus on a de matière à chauffer et plus cela prend du temps. Il est probable que si l'on prenait les mêmes volumes d'eau douce et d'eau salée, on aurait l'inverse. Je vous laisse le soin de le tester...

2/ L'eau salée bout à une température légèrement supérieure à celle de l'eau douce (environ deux degrés Celsius). D'ailleurs cela rappelle qu'il est possible aussi de modifier la température de congélation de l'eau en lui ajoutant du sel... Là, on tient peut-être quelque chose, non? Si la température d'ébullition est plus haute en eau salée, les nouilles cuiront plus vite... Non? qu'est-ce que vous en pensez?...

A ce moment, le scientifique débutant est sur le point de se sentir tout frétillant de bonheur! Voilà enfin une bonne explication rationnelle: je gagne un peu de temps de cuisson. Un peu comme dans la cocotte-minute : la pression augmentait la température d'ébullition, et ça cuisait donc plus vite. La conscience du devoir accompli et le sentiment d'avoir apporté sa contribution à la compréhension des mystères insondables de l'Univers, notre expérimentateur est sur le point de refermer son carnet de notes quand un sentiment de malaise commence à titiller une paire de neurones jusque là somnolents.

Hem... peut-être cela ne vous aura t-il pas échappé, mais pas une seule nouille n'a été sacrifiée dans cette expérience. Pourtant, elles étaient en bonne place dans la distribution des rôles. Bien, reprenons: mêmes volumes d'eau, du sel dans un des récipients et trois nouilles dans chaque casserole dès que l'ébullition démarre (alors que la température n'augmente plus). Dix minutes plus tard, on sort nos six cobayes afin de juger de leurs mines (ils ont été cuits en simultané).

nouilles à l'eau douce et à l'eau salée

Jouons aux devinettes: lesquelles sortent de l'eau salée? Celles de droite sont plus gonflées, plus pâles et plus molles. En gros, plus cuites. Mais elles sortent de l'eau douce... Aïe...

Visiblement, la pénétration de sel dans la pâte de la nouille ralentit sa cuisson, alors que l'on espérait le contraire par l'augmentation de la température d'ébullition...

Nous voici donc tout déconfits:  on ne trouve aucun avantage à les cuire à l'eau salée, ces nouilles... Alors? Une idée?... Vous dites?... Le goût??...

Ah... C'est bien possible finalement... Bon, tant pis pour la physique...

Voir aussi : Pourquoi met-on du sel sur les routes en hiver? ; CONGÉLATION DE L’EAU SALÉE

Source : Saler l'eau des nouilles


    Température de congélation de l'eau salée

    L'eau salée gèle à une température inférieure à 0°C, et l'abaissement de température de congélation dépend de la concentration en sel. Ainsi, l'eau de mer gèle à -1,9°C pour une salinité de 35g/l. Lorsque de l'eau salée gèle, la glace ne contient pas de sel. Les ions du sel n'arrivent pas à se placer dans la structure de la glace. Si dans un récipient on a de la glace en équilibre avec de l'eau salée, au fur et à mesure que la glace fond, l'eau devient de moins en moins salée, et la température de fusion augmente. Il n'y a donc pas de palier, à moins que l'eau salée soit en excès (eau de mer) ou que la solution soit saturée en sel (il y a alors un palier à  -21.6 °C)
      Explication de l'abaissement de la température de congélation par le sel

    L'explication de l'abaissement du point de congélation de l'eau est la suivante : il s'agit d'un phénomène entropique, c'est à dire géométrique. En s'intercalant entre les molécules d'eau, le sel dilue l'eau. Voyons cela plus en détail : lorsque la glace est en équilibre dans l'eau, il y a en fait en permanence des molécules de la glace qui s'échappent dans l'eau et, en nombre égal, des molécules de l'eau qui viennent se fixer sur la glace. Les ions du sel diluent l'eau et font que les molécules d'eau sont plus espacées.
    En effet, dans un liquide, les molécules sont en contact. On peut les considérer comme de petites sphères dures impénétrables. Les ions du sel (Na+ et Cl-) ont chacun un volume à peu près égal à celui des molécules d'eau. En se glissant entre les molécules d'eau, ces ions les séparent et les écartent les unes des autres. Étant plus espacées, les molécules d'eau frappent la glace moins souvent, et ainsi, il y en a moins qui viennent se fixer sur la glace; l'équilibre est rompu par le fait qu'il y a toujours autant de molécules qui quittent la glace (en effet, la glace ne contient pas de sel, et pour elle, rien n'est changé), et moins qui viennent se fixer dessus .C'est un phénomène tout à fait analogue à celui qui fait que l'eau s'évapore plus si la quantité de vapeur d'eau dans l'air diminue. Le sel fait baisser la "pression" de l'eau liquide.

      Animation : congélation de l'eau salée

    Dans l'animation ci-contre à droite, toute "molécule d'eau" (bille bleu violet) qui arrive sur le bord du bas gèle instantanément et devient blanche. Ce dernier bord, éjecte vers le liquide un débit de molécules qui dépend uniquement de la température. Plus il fait chaud, plus ce débit est grand. Si le débit est supérieur au débit des molécules qui arrivent, toute molécule qui arrive repart instantanément.

    Cette animation simule bien ainsi ce qui arrive dans la réalité, car, dans un mélange d'eau et de glace, il y a sans arrêt des molécules du liquide qui se fixent sur la glace, et le débit correspondant est proportionnel aux débit des molécules qui viennent frapper la glace (ici on prend un coefficient de proportionnalité de 1); d'autre part, il y a des molécules de la glace qui arrivent à se décrocher et à partir dans le liquide, et leur nombre augmente avec l'agitation donc avec la température.

    Dans un liquide, les molécules, qui ont un certain volume propre (le volume d'une molécule d'eau est voisin de celui d'un ion du sel), sont en contact. Le volume total du liquide est donc proportionnel au nombre de molécules du liquide. C'est ce qui est réalisé dans l'animation avec une profondeur de liquide proportionnelle au nombre de molécules du liquide.

    La première chose qu'on peut vérifier dans l'animation, et on peut faire cette vérification alors qu'il n'y a pas de sel, c'est que la fusion est brutale au dessus de 0°C. En effet, si une molécule part dans le liquide, cela n'augmente pas le débit de celles qui viennent se fixer sur la glace, car si le nombre de molécules dans le liquide est multiplié par 2 par exemple, la profondeur de liquide est aussi multipliée par 2, donc le temps pour faire un aller et retour aussi. Chaque molécule frappe donc la glace deux fois moins souvent. Si donc la température est telle qu'il y a un déséquilibre entre le nombre de molécules qui sortent et le nombre de celles qui rentre dans la glace, la fusion ne compense pas ce déséquilibre. On voit donc bien sur l'animation, l'extrême sensibilité du comportement collectif des molécules à la température. Dans la réalité, la fusion abaisse la température, donc diminue le débit des molécules qui vont de la glace vers l'eau, rétablissant ainsi l'équilibre. Ce phénomène n'est pas pris en compte dans l'animation.

    Mettons nous maintenant à une température négative, et introduisons du sel (billes rouges). À chaque fois qu'une bille rouge arrive, le volume augmente, donc la profondeur du liquide. Cela augmente le temps pour faire un aller et retour, pour une molécule du liquide, donc cela diminue le débit des molécules qui vont du liquide vers la glace. En effet, les ions du sel (billes rouges) ne peuvent pas rentrer dans la glace. L'équilibre est rompu, et la fusion reprend. Elle s'arrête quand les débits deviennent égaux; en effet, la fusion diminue la concentration en sel, donc augmente la température de fusion. On voit donc que le sel fait fondre la glace, et que la température de fusion de la glace dans l'eau salée dépend de la concentration de sel. Cela continue jusqu'à saturation de l'eau par le sel à 30 % de sel en poids, et la température de fusion est alors la plus basse, à -21,6°C.

      Mélange réfrigérant

    Même pour des températures très négatives, il existe un film d'eau liquide à la surface de la glace, du fait que les molécules à la surface sont moins bien attachées (elles sont retenues par un seul côté), et c'est la raison pour laquelle la glace et la neige glissent, et par conséquent pour laquelle on peut faire du ski.

    Prenons de la glace à 0°C. Si on met du sel au contact de cette glace, ce sel se dissout dans ce film d'eau à la surface de la glace. Ensuite, la glace fond (si la température est supérieure à-21.6 °C), car elle est en contact avec une solution saturée de sel dont le point de fusion est de-21.6 °C. La glace qui fond, absorbe de l'énergie qui est prise à l'agitation thermique, et la température décroît, jusqu'à -21,6°C si le sel est en quantité suffisante. On a fabriqué un mélange réfrigérant (vidéo ci-dessus à droite). En d'autres termes, le sel force la glace à fondre, et cette fusion forcée fait baisser la température. L'animation ci-contre montre l'abaissement de température quand des ions du sel ne peuvent pas pénétrer dans la glace. On calcule la moyenne de v2 et un terme est ajouté à chaque fois qu'un bille heurte le mur de droite ou celui de gauche. Quand on met le sel, dans un volume donné, là où il y avait deux molécules d'eau par exemple, il y a ensuite une molécule d'eau et un ion du sel.

Source :

Le Chat de Schrodinger expliqué simplement

Source : L'histoire du Chat de Schrödinger expliquée simplement

Le Chat de Schrödinger expliqué simplement

Il est une histoire des sciences que tout le monde connaît plus ou moins : celle du chat de Schrödinger. Je vais vous la raconter rapidement comme n’importe qui vous la raconterait, sans chercher à l’expliquer.

Erwin Schrödinger, l’un des piliers de la physique quantique, a imaginé une expérience de pensée à base de boite et de chat mort-vivant. Une expérience de pensée, c’est tenter de résoudre un problème en utilisant uniquement son imagination. C’est se poser la question : “que se passerait-il si….. ?”.

Le bon Erwin a donc imaginé l’expérience suivante : il enferme son chat dans une boite close, contenant un dispositif qui tue l’animal dès qu’il détecte la désintégration d’un atome d’un corps radioactif. De l’extérieur, on ne peut pas savoir ce qui se passe dans la boite.

En clair : le chat dans la boite peut vivre ou mourir, sans que l’on sache ce qui se passe depuis l’extérieur.

Dessin de l'expérience de Schrödinger

Dessin de l’expérience de Schrödinger

Schrödinger était-il un psychopathe, pour inventer cette expérience ?

Oh non, Erwin n’était pas dingue. Il a proposé cette expérience pour une bonne raison : il voulait confronter les gens aux paradoxes de la physique quantique.

Du temps d’Erwin Schrödinger, la physique quantique n’était pas encore vraiment acceptée par tous les scientifiques. En particulier, la théorie de la superposition quantique posait carrément problème.

Cette théorie nous explique que dans le monde quantique (c’est-à-dire à l’échelle de l’atome),  une particule – prenons un électron – peut être à plusieurs endroits en même temps. Vous devriez vous dire : “What ? Que l’on parle d’un électron ou d’une balle de tennis, comment un objet peut-il être à plusieurs endroits à la fois ?!”

Voila comment c’est possible (spoiler : c’est la faute aux maths)

Lorsqu’on parle des théories quantiques, il n’y a (presque) qu’une chose à garder en tête : la physique quantique est née grâce aux maths et continue à vivre grâce aux maths.

En physique classique, on dispose d’équations mathématiques pour décrire le monde qui nous entoure. On connaît par exemple l’équation “P = mg”, pour calculer un poids. En physique quantique aussi, il existe un tas d’équations pour décrire ce qui se passe à l’échelle de l’atome.

Et accrochez-vous (ouais, bon, j’exagère) : l’équation pour connaître la position d’un électron à un instant donné fait rentrer en jeu des probabilités. Autrement dit, un électron a “x% de chance d’être ici, y% d’être là, z% d’être ici ou là”. Mathématiquement, cela se traduit littéralement par : “l’électron est aux trois endroits en même temps“.

Voila pourquoi on parle de superposition quantique.

Wouahou ! Bref, donc le chat, il meurt à la fin ou pas ?

Vous avez raison, revenons-en au chat. Schrödinger a proposé cette expérience de chat dans une boite pour une raison assez simple : il voulait illustrer les paradoxes de la physique quantique à l’échelle humaine. Au lieu de parler d’un électron et d’un atome (dont tout le monde se fiche et que personne ne comprend), il a pris l’image d’un chat tout mignon.

Dans sa boite, le chat est accompagné d’un horrible mécanisme qui casse une fiole de poison s’il détecte la désintégration d’un atome d’un corps radioactif (voir le dessin plus haut).

Pas la peine de savoir à quoi correspond la désintégration d’un atome, blablabla. Tout ce qu’il faut comprendre, c’est que cet évènement de désintégration est totalement aléatoire. Autrement dit, personne au monde, pas même le scientifique le plus doué, ne serait capable de vous dire à quel moment le mécanisme dans la boite se déclenchera (ou même s’il se déclenchera).

Schrödinger s’imagine donc à côté de cette boite totalement fermée et se dit :

Je n’ai aucun moyen de savoir si le mécanisme s’est déclenché. Si mon chat était un objet quantique, je dirais qu’il est à la fois mort et vivant car selon la théorie de la superposition quantique, c’est tout à fait possible.

La seule manière pour lui de savoir si son chat est mort ou vivant, c’est d’ouvrir la boite et de constater. Lorsqu’Erwin ouvrira la boite, on parlera de décohérence quantique. La situation ambiguë (“mort ou vivant ?”) se résout instantanément car une fois la boite ouverte, le minou n’est plus “ou mort ou vivant”, il est clairement soit l’un, soit l’autre.

J’insiste sur la forme : Schrödinger dit que son chat est “mort ou vivant” car il s’est amusé à décrire le monde qui l’entourait avec une théorie propre à la physique quantique (la théorie de la superposition quantique). Or, les théories quantiques ne peuvent pas être utilisées pour décrire le monde à notre échelle. Elles ne fonctionnent qu’à l’échelle de l’atome.

Que faut-il retenir de cette expérience ?

Conclusion n°1 : la physique quantique doit rester quantique

J’aurais l’occasion d’y revenir dans un autre article mais la première conclusion est la suivante : les propriétés de la physique quantique doivent rester dans le monde quantique. Exporter les propriétés quantiques dans notre monde macroscopique conduit à des situations irréalistes, comme un chat mort et vivant en même temps.

À l’échelle de l’atome, le fait qu’un élément soit tout et son contraire est interprétable (voir l’interprétation de Copenhague). À notre échelle humaine, cela n’a aucun sens et aucun intérêt.

Les gourous (ceux des sectes) et les mordus de développement personnel adorent la physique quantique et l’utilisent de plus en plus dans une optique marketing (du gros lol ici par exemple). Ils font dire à la PQ des trucs absurdes du genre “il n’existe pas une réalité mais une superposition de réalités, blabla”. Ces gars là sont des tordus et n’ont rien compris à la PQ.

Conclusion n°2 : le chat n’est pas un objet quantique

À l’échelle de l’atome, les choses se déroulent de manière aléatoire. Un électron est un objet quantique. Un chat n’est pas un objet quantique car il ne dispose d’aucune propriété quantique. En d’autres termes : il ne suit pas le principe de superposition quantique.

Une pièce de monnaie n’est pas non plus un objet quantique : lorsque vous jouez à “pile ou face”, la pièce tombe soit sur pile, soit sur face, soit sur la tranche. On ne peut pas dire que la tranche soit une superposition de deux états, c’est un état comme un autre.

Conclusion n°3 : il existe peut-être des univers parallèles

L’interprétation de Copenhague est un courant de pensée qui cherche à donner une interprétation cohérente aux phénomènes quantiques. Par exemple : “À quoi correspond intellectuellement un objet quantique qui est dans deux états à la fois (par exemple une particule qui est à deux endroitsdifférents en même temps) ?”. Avec l’expérience du chat, on vient de voir que donner un sens à ce truc délirant n’est pas du tout facile.

Selon l’interprétation de Copenhague, l’état quantique n’a pas de sens physique. Selon cette interprétation, il est inutile de chercher une signification physique, réelle, palpable, à ce qui n’est et ne doit rester qu’une pure formule mathématique. Autrement dit : la superposition quantique est en quelque sorte un artifice mathématique utile dans les calculs des physiciens quantiques qui ne peut pas être illustré.

Pour une autre interprétation, la Théorie d’Everettl’état de superposition admet une interprétation physique. Les états superposés (chat mort et chat vivant) existeraient dans une infinité d’univers parallèles. Par exemple : si le chat de Schrödinger était un objet quantique, alors il serait mort dans un univers et vivant dans un autre univers parallèle. Lorsque Schrödinger ouvrirait la boite pour voir comment va son chat, il serait instantanément transporté dans l’un des deux univers créés, en fonction de l’état du chat. Why not ?

Aucune interprétation ne fait aujourd’hui l’unanimité des physiciens.

Pour résumer en 2 mots

En physique quantique, c’est-à-dire à l’échelle de l’atome et de l’électron, certaines particules peuvent être dans deux états contraires en même temps. On appelle ça la superposition quantique. D’un point de vue mathématique c’est tout à fait exact : un électron est mathématiquement à plusieurs endroits à la fois, car on utilise des calculs de probabilité pour connaître sa position. Il est “peut-être là, ici ou encore là”. Chaque position étant associée à un  coefficient de probabilité.

D’un point de vue physique, il y a deux écoles : d’abord l’école de Copenhague, qui dit que la superposition quantique ne doit pas chercher à être illustrée. Elle réfute l’histoire du chat de Schrödinger qui, selon elle, n’a aucun intérêt car la superposition quantique ne doit pas être interprétée physiquement. Le phénomène doit rester un concept mathématique.

Ensuite, la théorie d’Everett qui nous dit que concrètement, il existe peut-être des univers parallèles pour chaque état superposé.

PS : si la physique quantique vous passionne et que vous voulez en savoir ENCORE plus, regardez le livre qu'on a écrit, il est facile à lire et répondra à toutes vos questions.

Un hamburger a-t-il plus d’énergie qu’une Formule 1 ?

Un hamburger a-t-il plus d’énergie qu’une Formule 1 ?

Un élève, pendant le cours de technologie en classe de troisième, a interpellé son professeur pour lui faire part de son étonnement concernant deux informations repérées sur un site Internet dédié à l’énergie [2] où il était écrit :

♦ énergie chimique contenue dans un hamburger phare d’une célèbre enseigne de restauration rapide(2) : 495 kcal soit environ 2 MJ ;
♦ énergie cinétique d’un véhicule de 1 000 kg roulant à 180 km/h : 1 250 000 joules. 

Question de l’élève : Comment se peut-il qu’un hamburger ait plus d’énergie qu’une Formule 1 roulant à 180 km/h ?

Quelques réponses et pistes de ré exion sont proposées pour aider l’élève à sortir de sa légitime perplexité.

Article :  hamburger vs formula1 ou ici

Acoustic Prism

Acoustic Prism Invented at EPFL

09.08.16 - EPFL scientists have invented a new type of “acoustic prism” that can split a sound into its constituent frequencies. Their acoustic prism has applications in sound detection.

Almost 400 years ago, Newton showed that a prism could split white light into the colors of the rainbow, with each colour corresponding to a different wave frequency. Such an “optical prism” relies on a physical phenomenon (refraction) to split light into its constituent frequencies.

Now, a prism exists for sound. Hervé Lissek and his team at EPFL have invented an "acoustic prism" that splits sound into its constituent frequencies using physical properties alone. Its applications in sound detection are published in the Journal of the Acoustical Society of America.

The acoustic prism is entirely man-made, unlike optial prisms, which occur naturally in the form of water droplets. Decomposing sound into its constituent frequencies relies on the physical interaction between a sound wave and the structure of the prism. The acoustic prism modifies the propagation of each individual frequency of the sound wave, without any need of computations or electronic components.

Acoustic Prism Invented at EPFL
New type of "acoustic prism” that can split a sound into its frequencies.

The acoustic prism

The acoustic prism looks like a rectangular tube made of aluminum, complete with ten, perfectly aligned holes along one side. Each hole leads to an air-filled cavity inside the tube, and a membrane is placed between two consecutive cavities.

When sound is directed into the tube at one end, high-frequency components of the sound escape out of the tube through the holes near the source, while low frequencies escape through the holes that are further away, towards the other end of the tube. Like light through an optical prism, the sound is dispersed, with the dispersion angle depending on the wave’s frequency.

The membranes are key, since they vibrate and transmit the sound to the neighboring cavities with a delay that depends on frequency. The delayed sound then leaks through the holes and towards the exterior, dispersing the sound.

To take the concept a step further, the researchers realized that they could use the acoustic prism as an antenna to locate the direction of a distant sound by simply measuring its frequency. Since each dispersion angle corresponds to a particular frequency, it’s enough to measure the main frequency component of an incoming sound to determine where it is coming from, without actually moving the prism.

The principle of the acoustic prism relies on the design of cavities, ducts and membranes, which can be easily fabricated and even miniaturized, possibly leading to cost-effective angular sound detection without resorting to expensive microphone arrays or moving antennas.

Source : Acoustic Prism Invented at EPFL

Les fourmis sont des guerrières hors pair

Des chercheurs ont mis en scène quatre espèces invasives, montrant leurs stratégies pour gagner un territoire.

Le laboratoire a été transformé en champ de bataille pendant 42 jours. Les paris ont été pris. Et les troupes se sont affrontées sans relâche jusqu'à ce qu'il ne reste plus qu'un vainqueur. La force brute a été utilisée, morsures ou fractures, et aussi des armes chimiques. Plusieurs batailles ont eu lieu: s'il y a eu sur les quatre armées en lice la même vaincue à chaque duel, les vainqueurs eux ont «tourné». Ce n'est pas pour jouer que les chercheurs de l'ESE (laboratoire d'Écologie, Systématique, Évolution, universLinepithema humile, la fourmi d'Argentine, est originaire d'Amérique du Sud. Cette espèce a colonisé l'ensemble du bassin méditerranéen (Italie, sud de la France, Espagne).ité Paris-Sud-CNRS-AgroParis Tech) ont mis en scène ces affrontements entre quatre espèces de fourmis parmi les plus dangereuses au monde car très agressives et envahissantes. L'invasion biologique est la deuxième menace principale pour la biodiversité après la perte d'habitat. Les scientifiques voulaient savoir comment, à la suite du changement climatique entre autres, ces espèces pouvaient coloniser de nouvelles régions, détruisant les espèces endémiques. Et trouver la meilleure façon d'y remédier.

Modèles prédictifs

Les colonies de fourmis «cobayes», comptant chacune 300 ouvrières et une reine ont été placées dans des boîtes de 55 × 35 × 25 cm (ce qui à l'échelle des fourmis de quelques millimètres est un immense champ). Ces nids étaient remplis d'un substrat (sol, bois, feuilles), de différents points d'eau et de quelques objets (petits blocs de polystyrène). Un tube de 1 cm de diamètre et de 10 de long, muni de coton, permettait de relier les différents groupes entre eux.

Un podium a tout de même été établi selon le nombre de victoires gagnées dans les duels, en termes de pertes fourmilières de chaque colonie. En haut du podium, W. auropunctata, la toute petite fourmi électrique (prélevée en Nouvelle-Calédonie). Derrière, venues du sud de la France,L. neglectus, la fourmi des jardins, et L. humile, la fourmi d'Argentine, sont deuxième et troisième. La grande perdante est P. megacephala, la fourmi à grosse tête (Nouvelle-Calédonie), inexorablement décimée, bien qu'elle possède naturellement 10 % de soldats.

«Cela va aider à affiner des modèles prédictifs en cas d'invasion», explique Franck Courchamp, de l'ESE, responsable de l'étude. «Car nous avons constaté qu'en fonction du contexte et du temps passé les stratégies peuvent être complexes et changer.» Ainsi, les deux espèces les plus résistantes (auropunctata et neglectus) ont eu tendance à employer l'arme chimique (un venin qu'elles peuvent projeter) tandis que les deux autres préféraient le corps à corps physique. Autre différence, megacephala et neglectus passaient immédiatement à l'attaque dans le camp adverse tandis que les deux autres tenaient d'abord des positions défensives avant de s'aventurer prudemment ailleurs. Résultat, plus une colonie de fourmis adoptait la stratégie des Huns, se voulant les émules d'Attila, plus la mortalité de ses troupes était élevée.

«Stratégie machiavélique»

Toutefois, «dans une dernière expérience mettant en concurrence les quatre colonies simultanément, quatre nids et un espace de fourragement commun, le classement des espèces a été complètement différent, raconte Franck Courchamp. Plus malignes, ou moins agressives, les fourmis à grosse tête, jusqu'ici dernières des duels, ont adopté une stratégie machiavélique digne des plus grands stratèges militaires: elles ont attendu en retrait que les trois autres se soient étripées avant d'entrer en scène pour porter le coup de grâce aux autres armées dont les régiments étaient dévastés.»

Les comportements individuels des fourmis sont très différents de l'une à l'autre, selon qu'elles sont seules ou pas, qu'elles se sentent ou non plus fortes que leur adversaire. Certaines travaillent mieux en groupe. D'autres savent «faire le mort». «Nous voulions au départ les cinq espèces les plus dangereuses, se souvient Franck Courchamp. Mais nous n'avons pas pu avoir les autorisations, par crainte de dissémination, pour faire venir un “monstre” de la catégorie, la fourmi de feu (S. invicta), qui ravage le sud-est des États-Unis et, de plus, a des piqûres extrêmement douloureuses.» On ne rigole pas avec les fourmis.

Source : Les fourmis sont des guerrières hors pair

La lentezza dell'aria e la velocità dell'acqua - (By Franco Bagnoli)

La lentezza dell'aria e la velocità dell'acqua

Qualche giorno fa stavo risentendo la lezione di fisica a mia figlia. Si parlava di fluidi: densità, portata, pressione, legge di Bernoulli... queste cose qui.

Ovviamente mia figlia stava ripetendo la lezione a pappagallo, con una evidentissima disvoglia di studiare.

Cercando di farla interessare di più alla materia, le ho proposto tre piccoli esperimenti casalinghi: utilizzando i concetti che stava ripetendo, misurare la densità dell'acqua, la velocità con cui esce dalla cannella della cucina e la velocità dell'aria all'uscita di una cannuccia, quando si soffia dentro a tutta forza.

Il primo esperimento è certamente il più facile. Ma prima le ho domandato quanto, secondo lei, era la densità dell'acqua e mi ha risposto a bomba: "uno!". "Uno cosa?!!!" ho strillato! La densità non è un numero puro, bisogna dare l'unità di misura. E' molto diverso provare a travasare un liquido di densità, diciamo, 1 chilogrammo per millimetro cubico (circa un milionesimo della densità di una stella di neutroni, ma un 50.000 volte più denso dell'uranio), rispetto a un liquido di densità 1 chilogrammo per metro cubico (più o meno la densità dell'aria).

La misura della densità dell'acqua è molto semplice, basta avere una bottiglia da un litro e una bilancia.


Si pesa la tara, ovvero la bottiglia vuota, che poi si sottrae al peso della bottiglia piena. Con le bilance elettroniche la cosa è ancora più facile, dato che basta azzerare la bilancia con la bottiglia vuota sopra per sottrarre automaticamente la tara. Ovviamente il peso di un litro d'acqua è venuto di circa 1 kg (1042 g), ma per calcolare la densità abbiamo ancora bisogno di sapere cos'è un litro (). Dopo molto soffrire, siamo finalmente arrivati alla corrispondenza 1 ℓ = 1 dm(un decimetro cubico). "Quindi?", ho domandato, "quanto fa in metri cubi?". Dato che un decimetro è un decimo di un metro, ovvero 1 dm = 10-1 m, abbiamo finalmente che 1 ℓ = 1 dm3 =10-3 m3, e quindi possiamo trovare la fatidica densità dell'acqua che è 1 kg/1 dm3 ovvero 1000 kg/m3. Eh, sì, un metro cubo d'acqua ha la massa di 1000 kg, ovvero pesa una tonnellata. Ma un metro cubo è tanta roba, una vasca da bagno tiene appena 100-150 litri.

Nella vita di tutti i giorni le densità sono espresse come rapporto a quella dell'acqua. In questa scala ovviamente la densità (relativa) dell'acqua è 1. Tanto per avere dei riferimenti, la densità relativa di una roccia è 4-5, del ferro è 7,8, del mercurio 13,5, dell'oro 19, dell'uranio 20, dell'alluminio 2,7. Quindi il ferro galleggia sul mercurio, l'oro affonda (ma non lo fate, il mercurio e l'oro formano un amalgama e i gioielli della mamma si macchierebbero irrimediabilmente). I solidi meno densi sono gli areogel, che arrivano a densità vicine a quelle dell'aria pur essendo ancora piuttosto robusti

Uff!, passiamo adesso alle cose un pochetto più difficili. Come si fa a misurare la velocità di uscita dell'acqua dalla cannella?

C'è arrivata subito anche mia figlia: basta calcolare il tempo che ci mette a riempire la bottiglia. Per un litro d'acqua ci sono voluti 7 secondi, quindi la portata q della cannella è q = 1 /7 s = 0,14 /s = 14 · 10-5 m3/s. Ma la portata è definita come rapporto tra volume V che passa diviso il tempo t che ci mette a passare. Possiamo immaginare un l'acqua  che esce dalla cannella come se fosse una specie di blob cilindrico. Il volume V è dato dal prodotto tra lunghezza L del cilindro per la sua sezione S, e quindi abbiamo q = V/t = SL/t, e L/t è proprio la velocità v di uscita dell'acqua. Quindi v = q/S. Il diametro della cannella è circa 0,6 cm (immagino che sia 1/4 di pollice), quindi S = πr2 con r=0,3 cm = 3 10-3 m e π =3,14. Alla fine otteniamo v = q/ (π r2) = 14 · 10-5 m3/s / (3,14 · 9 · 10-6 m2)  ≃ 5 m/s ≃ 17 km/h.

Adesso la cosa più difficile: e per il getto d'aria di una cannuccia? Non si può certo pensare di riempire una bottiglia. Si potrebbe riempire un palloncino ma la densità dell'aria ovviamente cambia quando viene compressa.

Si può però costruire una specie di venturimetro, con un'altra cannuccia. Basta tagliarla e immergerne una parte in un bicchiere d'acqua, e poi soffiare con l'altra cannuccia a filo della prima.

E' lo stesso sistema che si usa per costruire una specie di areografo con cui bagnare le persone circostanti,


ma in questo caso la cannuccia immersa dev'essere più lunga, in modo che la depressione creata dal soffio non ce la faccia ad innalzare la colonna d'acqua fino al bordo della cannuccia stessa.

Misurando l'altezza della colonna d'acqua sappiamo quant'è la depressione. Nel nostro caso, soffiando a tutta forza sono riuscito a "alzare" l'acqua di 5 cm. Adesso usiamo l'equazione di Bernoulli [INSERIRE RIFERIMENTO PAGINA BERNOULLI] []

P1/2ρv2 + ρ g h  = costante,

dove P è la pressione statica, ρ la densità, g = 9,8 m/s2 è l'accelerazione di gravità e h l'altezza. Se la calcoliamo al pelo dell'acqua nel bicchiere (pressione P0) e al pelo dell'acqua nella cannuccia (pressione P) otteniamo la depressione all'interno della cannuccia, giusto per informazione,

P0 - P = ρ g h = 1000 kg/m3 · 9,8 m/s2 · 5 · 10-2 m ≃ 490 Pa

(per paragone, la pressione atmosferica è circa 105 Pa).

Se facciamo il confronto tra il bordo della cannuccia (dove si soffia, pressione P) e l'aria circostante (pressione P0), abbiamo

P1/2ρv2 = P0,


ρ g h = 1/2ρv2

da cui

  v = √ (2g h) ≃ 1 m/s = 3,6 km/h.

Come vincere al casinò  (By Franco Bagnoli)

Quello di vincere al casinò  è un sogno comune a molti. Ma a meno di non essere Gastone, oppure sapere che la roulette è truccata (e come è truccata), direi che non c'è verso!

Però, se volete fare soldi facilmente, posso insegnarvi come: mettete 50 € in una busta e speditemela per posta e io vi invierò il metodo....

Il fatto è che l'estrazione dei vari numeri  è indipendente, il che implica che QUALSIASI sequenza ha la stessa probabilità di uscire, in qualunque momento. Ovviamente questo cozza parecchio con la nostra esperienza. Per semplicità d'ora in poi giocheremo solo su rosso o nero, oppure manque e passe, o pari e dispari, oppure, il che è lo stesso, su testa e croce con una moneta. Rappresenteremo le due opzioni con i simboli 0 e 1.

Bene, La sequenza "11111111" è più o meno probabile della sequenza "00101101"?

Anche se può sembrare impossibile, hanno tutte e due la stessa probabilità, che è (1/2)8=1/256. La seconda ci sembra più probabile per due motivi: prima di tutto è meno riconoscibile della prima, per cui tendiamo a classificarla nella classe delle sequenze "con più o meno lo stesso numero di zeri e di uni", e ovviamente la probabilità di estrarre una sequenza DELLA CLASSE con 50% di zeri e uni è molto più grande di quella di estrarre una sequenza DALLA CLASSE delle sequenze con il 100% di uni: nella prima classe (per 8 simboli) ci sono 70 possibili sequenze diverse, nella seconda solo una! Il secondo motivo è che abbiamo una certa sensibilità per quello che "dovrebbe" essere casuale che, per esempio, ci fa dire che una sequenza "01010101" o "00001111" è meno casuale di "00101101". [Falk, Ruma & Konold, Clifford E. (1997), "Making sense of randomness: Implicit encoding as a basis for judgment", Psychological Review 104, 301-318.]

Comunque, queste considerazioni eliminano il metodo "aspetta una lunga sequenza di 1 e poi scommetti sullo 0", e cose simili.

Però, scommettendo a caso (o anche sempre sullo stesso numero, tanto è lo stesso) si dovrebbe mediamente rimanere sempre in pari. Giusto? Non proprio! Prima di tutto nelle roulette c'è lo zero (e in quelle americane il doppio zero), quindi la somma delle probabilità dello zero e dell'uno (ovvero, pari e dispari per esempio) non fa uno, quindi in media si perde sempre. Ma ammettiamo di stare giocando a testa e croce e di scommettere sempre una unità. Il nostro capitale fa quello che in termini tecnici si chiama un random walk, ovvero qualcosa di simile a questo in figura (solo che noi partiamo dal nostro capitale invece che da zero).

Alcuni random walk

Il problema è che il random walk non è limitato: è vero che la media su tante realizzazioni o su una sequenza molto lunga (ma tornerò su quest'ultimo caso tra poco) è zero, ma la sua "varianza", ovvero la taglia delle fluttuazioni, cresce con il numero di lanci (t) come
t. Questo vuol dire che prima o poi il nostro capitale toccherà lo zero, e a quel punto dovremo prendere un prestito, ma prima o poi il nostro capitale si ridurrà ancora a zero...

Convoluzione di random walk

Lo scenario non è proprio così tragico, o forse è anche peggio. Supponiamo di avere credito illimitato, così non ci preoccupiamo di andare in "rosso", e quini possiamo partire con capitale zero. Ho detto che il guadagno medio su tante realizzazioni è zero. E questo dovrebbe valere anche per una sequenza molto lunga, dato che posso sempre dividerla in sottosequenze più corte e fare la media di queste. Ma si può dimostrare che per una tipica sequenza che parte da capitale zero, l'ultima volta che, per un certo tempo t, il capitale è stato zero è o molto vicino all'origine o molto vicino alla fine. Ovvero, anche supponendo di finire in pari, in una tipica partita state vincendo, o perdendo, quasi tutto il tempo!

Distribuzione dei tempi di ultimo passaggio dallo zero

Detto questo, la regola dei raddoppi (ovvero la regola di raddoppiare la posta ad ogni puntata) dovrebbe in principio funzionare, ma nella pratica si espone a due grossi rischi: il primo è quello del capitale a disposizione. Dato che raddoppiate la posta, questa aumenta molto rapidamente, ma abbiamo appena visto che possono apparire lunghe sequenze di eventi contrari. Se abbiamo la possibilità di scommettere fino a n raddoppi, possiamo essere sicuri che prima o poi troveremo una sequenza avversa più lunga di n. Il secondo motivo è sociale. Supponiamo che abbiamo fatto 10 raddoppi partendo da 1 € , e quindi adesso stiamo scommettendo 1024 € . Supponiamo di vincere. La nostra vittoria effettiva è di 1 € , ma come si fa a non offrire da bere agli amici o dare la mancia al croupier quando si vincono 1000 €? Seguendo questo metodo diventerete molto presto impopolari!

Adesso cambiamo un po' il gioco. Invece di puntare sulla singola moneta, puntiamo sulle sequenze lunghe L, per esempio L=3. Ci sono otto sottosequenze possibili lunghe tre: 000, 001, 010, 011, 100, 101, 110, 111. Possiamo pensare ad una roulette particolare, dove invece che sui numeri si punta sulle sequenze di numeri.

Ovviamente, la probabilità che con tre lanci di monete esca una sequenza tra quelle appena viste è la stessa per qualsiasi sequenza. E, ugualmente, se uno prende una sequenza di lanci molto lunga, trova lo stesso numero di occorrenze delle varie sottosequenze. Il programma che potete scaricare qui a sinistra genera un certo numero di sequenze di lunghezza variabile, e poi per ogni sottosequenza calcola la probabilità della sua comparsa e l'intervallo medio tra due apparizioni. Come si vede, i valori sono gli stessi per tutte le sequenze.

Spero che a questo punto siate d'accordo con me, perché ora si comincia a far girare i soldi veri.

Per prima cosa vi chiederei di puntare sul tempo (medio) di prima apparizione delle varie sequenze. Ovvero: si sceglie una sequenza, per esempio 101, poi si lancia una moneta finché questa sequenza non appare, e si registra il numero di lanci necessari. Ripetiamo poi l'esperimento molte volte. Tutti (io compreso) si aspettano che, per quello che abbiamo detto, il tempo di prima apparizione delle varie sottosequenze sia lo stesso, ma non è così. Se non ci credete, provate direttamente cliccando sul tabellone a destra.

Incredibile, no? le sequenze "000" e "111" sono molto più tardive delle altre! Si può illustrare questo fenomeno con sequenze lunghe due: per simmetria la sequenza "00" ha lo stesso tempo di apparizione della sequenza "11" e la "10" di "01", quindi basta studiare una coppia. Prendiamo per esempio la sequenza 00 e la sequenza 10. Se al primo lancio esce "1" (50% di probabilità), la sequenza 10 prima o poi uscirà e sicuramente apparirà prima della sequenza "00". Se esce uno "0" con il 50% di probabilità uscirà l'altro "0" (e così vince "00"), ma con l'altro 50% esce un 1 e quindi prima o poi vincerà "10". Quindi "10" ha il 75% di probabilità di uscire prima di "00"!

A questo punto potete far girare la versione "completa" per l'analisi delle sequenze, così potete calcolare il tempo di prima apparizione per varie lunghezze.
Come si vede, ci sono sequenze che appaiono prima e altre che appaiono dopo!

Prendendo spunto da questo risultato, possiamo veramente mettere su un vero gioco d'azzardo. Ecco il tabellone.

Si gioca in due, lo sfidante contro il banco. Si tratta di scommettere su quale sequenza uscirà per prima. Si lancia una serie di monete, una dopo l'altra finché non esce una delle due sequenze. Il banco paga una volta e mezzo quanto puntato!

Da quello che abbiamo visto prima, chiunque capirebbe di non scommettere mai sulle sequenze tardive "000" e "111" e neanche su quelle intermedie "010" e "101", ma credo che tutti concordino sul fatto che che sia indifferente scommettere su una qualsiasi delle altre... E invece no! Se il secondo giocatore conosce il trucco, può sempre (statisticamente) battere il primo giocatore.  Anzi, lo batte con una frequenza di 2 a uno, così che anche se paga una volta e mezzo in realtà il banco guadagna statisticamente sempre metà posta. Cliccate sul tabellone a destra per giocare.

Volete sapere qual è il trucco? Mettete 50 € in una busta..

Vabbè, ve lo dico. Se il primo giocatore gioca una sequenza ABC, la sequenza bAB (dove b sta per l'opposto di B) esce statisticamente prima. Quindi per battere, per esempio, "011" bisogna puntare su "001". Questo si chiama "il gioco di Penney" ['s_game] ed è un esempio di gioco non transitivo (come anche "foglio sasso forbice").

Osservando il grafico del processo, si capisce da dove nasce la non transitività: le due sequenze più tardive (viola) “dominano” in parte sé stesse, quelle intermedie (verdi) si “dominano” a vicenda, le altre quattro (arancioni) si dominano circolarmente.

Pourquoi y a-t-il un tourbillon quand je vide ma baignoire ?

POURQUOI Y A-T-IL UN TOURBILLON QUAND JE VIDE MA BAIGNOIRE ?N°318Semaine du 29 au 04 Feb 2016Une drôle d'histoire de baignoire qui se vide nous amène, non pas à un exercice de calcul, mais à des notions de physique et de sciences de la Terre ! Accrochez-vous !

Source : Pourquoi y a-t-il un tourbillon quand je vide ma baignoire ? - Kézako ? -, la WebTV scientifique hebdo

Aller à la barre d’outils