Processus d’évaluation : « Etre premier en ordre de passage vous pénalisera »

Processus d’évaluation : « Etre premier en ordre de passage vous pénalisera »

Une expérience américaine montre que les évaluateurs octroient de meilleurs scores au fil du temps, observe Charles Cuvelliez, professeur en communication, dans une tribune au « Monde ». Un biais cognitif qui pèse lourdement sur la rationalité de nos décisions.

Si décider de votre horaire de passage à un concours vous a toujours angoissé, vous avez bien raison car c’est loin d’être un détail sans influence sur le résultat. C’est la leçon d’expériences menées par deux chercheurs de l’université de Virginie, qui ont mis en évidence un nouveau biais cognitif (« Do Evaluations Rise With Experience ? » Kieran O’Connor, Amar Cheema, Psychological Science n° 29/5, 1er mars 2018).

Ils ont demandé à un groupe de 168 étudiants de donner un score à dix histoires qu’on leur demandait de lire, à raison d’une histoire par jour, de façon à étaler le processus d’évaluation dans le temps. L’ordre dans lequel les histoires leur étaient données différait selon les étudiants. Or, ce sont les histoires lues dans les derniers jours qui ont eu le meilleur score, peu importe laquelle.

En fait, la note attribuée avait tendance à monter jour après jour. On leur a ensuite demandé, au fur et à mesure qu’ils avançaient dans leur évaluation des dix histoires, de juger la difficulté de cette tâche d’évaluation. Véracité, style, contenu, genre, chacun avait des critères d’évaluation différents, mais tous étaient d’accord pour dire que la tâche devenait plus facile avec le temps.

C’est ce qui fait penser aux chercheurs que notre cerveau confond inconsciemment la facilité à donner un score avec le score lui-même, comme si quelque chose qui devient (plus) facile à évaluer était forcément meilleur ! Et si l’on peut parler de « biais cognitif », c’est parce que les participants étaient persuadés d’évaluer de la même manière au début du test comme à la fin.

L’objectivité existe-t-elle ?

Si on fait le bilan de toutes les situations où une estimation s’étale dans le temps, cette expérience est riche d’enseignements. Passer le premier ou le dernier à l’épreuve orale, c’est un dilemme auquel tous les étudiants font face.

Source : Le Monde

 

Differences between Bernoulli's Principle and the Coanda

What are the differences between Bernoulli's Principle and the Coanda effect when we apply them on aircraft wings?

Some people claim that lift is due to the Coanda effect. Those people are wrong. They do not understand the basis of Coanda effect. I’ll come back to this.

Bernoulli’s principle is a mathematical calculation that relates flow speed to pressure under certain circumstances. Although there are restrictions on how you can use it, it can be used to help you figure out the pressure on the wing when you know the speed of the fluid near the wing. All by itself, it does not explain lift. It is a small tool that is part of figuring out how much lift will occur. But it’s just a calculation tool.

I am not going to try to explain how a wing creates lift. That is a very multifaceted topic and has lots of subtleties. It would take me teaching you about two or three full length graduate level courses in fluid dynamics after you already have a superb understanding of physics and math at the undergraduate level to cover all that you need to really understand how a wing produces lift. That’s why all the attempts on the internet fail. Some of them get parts of it right. Some of them are misleading. Some of them are misguided. Some of them get everything wrong. I’m not going to attempt it. I would fail too.

But I can try to explain what the Coanda effect is and how it works. When you understand how it works, it is apparent that it has nothing to do with lift generation on a wing. It’s simply irrelevant. It does not apply to flow past a wing. I expect to get resistance from the people who think they understand Coanda effect and therefore think it explains lift. It doesn’t.

Here is a definition of Coanda effect from Websters Dictionary that is quoted on Wikipedia (Coandă effect - Wikipedia):

“the tendency of a jet of fluid emerging from an orifice to follow an adjacent flat or curved surface and to entrain fluid from the surroundings so that a region of lower pressure develops.”

This is a description of what happens due to the Coanda effect. It tells you what people observe. It doesn’t tell you why it happens.

People looking at fluid flowing in the Coanda effect notice the flow following a curved surface and say, “ooooh, that’s just like flow past the curved surface of a wing. Surely this air following the curve of the wing (and the change of its momentum as its velocity changes direction) explains the generation of lift.”

Wrong.

There are certainly some similarities. Sure, there is flow following the curve. Sure, there is a deflection of the velocity. Sure, there are suction pressures acting on that surface (that can be related to the velocity by Bernoulli’s principle). But it’s just a resemblance. It’s not an explanation. On the wing there is no Coanda effect. It just looks like the Coanda effect. We need to understand how the Coanda effect works.

How the Coanda Effect Works.

When you squirt a jet of fluid (could be water, could be air, could be most liquids or gases, they are all fluids) into a large body of non-moving fluid, that jet of fluid will start to interact with the big stationary body of fluid. It will start to mix with it and start to move it along too.

Think of a water jet coming out of the wall of a Jacuzzi. If you hold your hand in front of the opening, you feel a small concentrated blast of high speed water. If you hold your hand further away, you feel a broader region of water moving more slowly. If you hold your hand even farther away, you feel a general flow of all the water in the region. This interaction with stationary fluid is what the Coanda effect is all about. That is absent in the flow over a wing (and don’t give me any BS about the boundary layer on the wing being slow moving fluid - that’s almost the inverse of what is happening here. And it’s certainly not present in potential flow).

So this narrow jet of high speed fluid is emerging from the nozzle and is surrounded by stationary fluid. By viscous stresses and turbulent mixing, it drags along some of that stationary fluid and gets it moving too. That is, it speeds up a layer of fluid next to itself. By reaction (Newton, you know) that slows down the fluid in the jet. After all, momentum is conserved. So the fast moving narrow jet starts to broaden into a wider jet of slower moving fluid. But it’s dragging that fluid along from somewhere. It’s moving it away from where it started. That leaves a sort of hole behind. That fluid that is removed has to be replaced. It sucks in fluid laterally from farther away from the jet. This keeps happening all along the length of the jet. More and more fluid is being pushed along and therefore more and more fluid has to be sucked in from the sides. Later on, I’ll try and find some photographs showing this effect, which is called entrainment. The jet entrains surrounding fluid. That just means it sucks it in from the sides and shoves it forward.

This sucking inward of surrounding fluid - that is what causes the Coanda effect. Note that I have not mentioned any walls yet, curved or otherwise. I’ve just talked about a jet of fluid sucking in surrounding fluid.

What happens if we block that inward flow of the surrounding fluid by putting a wall on one side near the jet? The wall is parallel to the direction the jet is moving. This wall can be straight. No need for any curved surfaces. The curved surfaces that are associated with many descriptions of the Coanda effect are just distractions. There is no need for the surface to be curved for the Coanda effect to work. All you need is a jet of fluid that is trying to suck in the surrounding fluid and a wall that blocks that flow of fluid towards the jet. Actually, you don’t even need a wall. Two jets flowing side by side will each suck towards the other one as though there were a wall between them. That’s still the Coanda effect.

So what happens? The jet can’t pull fluid in from that direction where the wall is, but the suction effect that would have pulled that fluid in from that side still exists. It’s a low pressure region. Instead it pulls the jet over to that wall. The jet deflects over towards the wall and then flows along the wall. It’s doing that because it’s trying to entrain the fluid over there and it can’t. It’s only creating the suction effect because it is accelerating fluid that is not moving and getting it going in the direction of the jet. It’s entraining fluid. Or trying to. So the jet sucks itself over to the wall and then runs along the wall. Mind you, it’s still entraining fluid from the other sides of the jet.

None of this entrainment occurs with a wing because all the air is already moving at essentially the same speed. There is no mixing with stagnant fluid. There is none of this sucking in of fluid that is replacing fluid that has been entrained by the jet. There is no jet. All the air is moving. There just happens to be this curved surface (the top of the wing). It vaguely looks like the description of the Coanda effect. But there’s no Coanda effect. Sorry, there’s just confusion. And belief. And proselytizing. It’s amazing how strongly some people will hold to their belief based on a misunderstanding of the underlying physics.

So, your question is:

What are the differences between Bernoulli's Principle and the Coanda effect when we apply them on aircraft wings?

The answer is that these are not commensurate concepts and cannot be compared. One is a mathematical relation between speed and pressure. The other is a phenomenon associated with mixing around a jet of fluid blasting into stationary fluid.

How do you apply them to a wing? Well, Coanda does not apply to a wing, so you can’t. Bernoulli’s principle can be used as part of the analysis that converts velocities near a wing into pressures acting on the wing. Those pressures can be integrated to give you an estimate of the lift on the wing. That’s a very small part related to the generation of lift on a wing.

Source : Kim Aaron

Tableau des Troubles Dys

 

 

On regroupe sous “troubles Dys” les troubles cognitifs spécifiques et les troubles des apprentissages qu’ils induisent.

Les troubles cognitifs spécifiques apparaissent au cours du développement de l’enfant, avant ou lors des premiers apprentissages, et persistent à l’âge adulte.

Ils ont des répercussions sur la vie scolaire, professionnelle et sociale, et peuvent provoquer un déséquilibre psycho-affectif. Leur repérage, leur dépistage et leur diagnostic sont déterminants.

Lire la suite : http://www.ffdys.com/troubles-dys

Physionary - a scientific version of Pictionary

Physionary - a scientific version of Pictionary

N. Poljak, A. Bosilj, S. Brzaj, J. Dragovic, T. Dubcek, F. Erhardt, M. Jercic
Physics department, University of Zagreb

Abstract. We describe a variant of the popular game “Pictionary” based on the terms used in elementary and high school physics. We believe that the drawing of physical terms helps students develop a deeper understanding of physical concepts behind them, as well as apply them in everyday situations.

1. Introduction

The Croatian Physical Society organizes the annual Summer school for young physicists [1], intended to reward elementary and high school students for their accomplishments on the national physics competitions. The schools typically consists of half-day lectures combined with workshops, experiments or games that take place during leisure hours. For the last three editions of the summer schools, we developed a variant of the popular game ”Pictionary” as a small competition for the students. “Physionary”, as we named the variant, has proven to be very successful in entertaining the students, not only during the evenings intended for the competition, but also during the rest of leisure time.

2. Game description

“Physionary” is a game loosely derived and expanded from the commercially-distributed “Pictionary”. A similar game was developed earlier for University biology students [2], however, we expanded further on the game since we found it beneficial to do so.

The students are divided into groups based on their age and are given a number of cards, each containing 6 terms from elementary or high school physics. The terms are taken from indices of physics curricula or physics manuals and divided into 5 sets of cards, one for each high school grade and one for elementary school grades. A dice is thrown to randomly select the ordinal number of the term on the card. A one minute timer is started and one of the students from each group is required to draw the term found on his/her card, while the rest of the group has to guess what term it is. If the team accomplishes this within the given time allotment, they receive a point. Several rounds are played this way before the pace of the game is then made faster by decreasing the available time for drawing. After a predetermined number of rounds played in this manner, the second phase of the game begins. In this phase, the students don’t draw the terms but instead try to “act out” the term given on their cards, as it is usually done in charades. This is also done within a given time allotment, typically set to a minute.

This game turned out not to be only entertaining, but also highly educational. Sometimes, a specific term may not be recognized by some of the members of a certain group. However, we noticed that the said term is quickly taken in by those members, as evidenced by their future recognition of that, as well as similar terms. Once the students start to communicate concepts pictorially, they move from their definitions and try to use everyday examples to convey them to their group. We have also noticed that a sense of connection between various terms is formed, since the students find it beneficial to explain a new term with the help of terms that they have already drawn on paper - they simply circle the term that was already guessed by the group. Finally, the students were often found drawing graphs and diagrams, which is a skill they need to develop in physics, but are often not motivated to do so.

3. Conclusion

We have expanded on the known popular party games to
create an effective and entertaining physics learning tool.
The skills developed during game play seem to be beneficial
to the students and the terms they are required to draw or
act out are taken from their curricula. The students seem
to develop another important skill during the game - using
simple physical concepts in everyday situations, which is a
skill they are most often found lacking. In what follows, we
present a selection of 10 terms (out of 850) from each of the
5 sets of cards. We have limited the selection to 10 terms
since we expect that different countries will have differing
curricula, so we thought it best that everyone interested
made their own sets of cards. Figure 1: An example of a

playing card.

References

[1] http://www.hfd.hr/ljetna skola/
[2] Kathleen A. Parson, John S. Miles, “Bio-Pictionary – a scientific party game which helps to develop pictorial communication skills”, Journal of Biological Education, 28:1, 17-18, DOI:10.1080/00219266.1994.9655358


elementary

1st grade

2nd grade

3rd grade

4th grade

heat insulator surface area power mass sliding friction Solar energy pulley molecule cavity electricity

joule frequency dynamics buoyancy unit
fluid projectile motion cosmic speed energy Galileo

diffusion capacitor inductivity linear expansion Lorentz force work
ideal gas insulator interaction isobar

diffraction rainbow standing wave intensity sound rotation length contraction phase
lens
light guide

plasma atom antiparticle semiconductor fractal boson
red giant mass defect butterfly effect quark

Table 1. A sample from the terms given on the “Physionary” cards, sorted in 5 classes according to students’ grade.

Let’s have a coffee with the Standard Model of particle physics

Let's have a coffee with the Standard Model of particle physics!

Julia Woithe1,2Gerfried J Wiener1,3 and Frederik F Van der Veken1

Published 30 March 2017 
Physics EducationVolume 52Number 3 
Focus on Nuclear and Particle Physics

 Article PDF

Abstract

The Standard Model of particle physics is one of the most successful theories in physics and describes the fundamental interactions between elementary particles. It is encoded in a compact description, the so-called 'Lagrangian', which even fits on t-shirts and coffee mugs. This mathematical formulation, however, is complex and only rarely makes it into the physics classroom. Therefore, to support high school teachers in their challenging endeavour of introducing particle physics in the classroom, we provide a qualitative explanation of the terms of the Lagrangian and discuss their interpretation based on associated Feynman diagrams.

Export citation and abstract BibTeX RIS

Original content from this work may be used under the terms of the Creative Commons Attribution 3.0 licence. Any further distribution of this work must maintain attribution to the author(s) and the title of the work, journal citation and DOI.

1. Introduction

The Standard Model of particle physics is the most important achievement of high energy physics to date. This highly elegant theory sorts elementary particles according to their respective charges and describes how they interact through fundamental interactions. In this context, a charge is a property of an elementary particle that defines the fundamental interaction by which it is influenced. We then say that the corresponding interaction particle 'couples' to a certain charge. For example, gluons, the interaction particles of the strong interaction, couple to colour-charged particles. Of the four fundamental interactions in nature, all except gravity are described by the Standard Model of particle physics: particles with an electric charge are influenced by the electromagnetic interaction (quantum electrodynamics, or QED for short), particles with a weak charge are influenced by the weak interaction (quantum flavour dynamics or QFD), and those with a colour charge are influenced by the strong interaction (quantum chromodynamics or QCD). Contrary to the fundamental interactions, the Brout–Englert–Higgs (BEH) field acts in a special way. Because it is a scalar field, it induces spontaneous symmetry-breaking, which in turn gives mass to all particles with which it interacts (this is commonly called the Higgs mechanism). In addition, the Higgs particle (H) couples to any other particle which has mass (including itself).

Interactions are mediated by their respective interaction particles: photons (γ) for the electromagnetic interaction, the weak bosons (WW+ , and Z0) for the weak interaction, and gluons (g) for the strong interaction. Furthermore, an elementary particle can be influenced by more than one fundamental interaction, in which case it has several charges (see figure 1). For example, due to its electric and weak charges, a muon is influenced both by the electromagnetic interaction and the weak interaction.


Figure 1.

Figure 1. Matter particles can be divided into three groups: quarks (q) and antiquarks ($\bar{q}$ ); electrically charged leptons ($\ell $ ) and antileptons ($\bar{\ell}$ ); neutrinos (ν) and antineutrinos ($\bar{\nu}$ ). Gluons (g) couple to colour charge, which only quarks, antiquarks, and gluons themselves, have. Photons (γ) couple to electric charge, which is found in (anti)quarks and electrically charged (anti)leptons. The weak bosons (WW+ , Z0) couple to the weak charge, which all matter particles have. Weak bosons can also interact with the photon (but this is a pure weak interaction, not an electromagnetic one). And finally, the Brout–Englert–Higgs field interacts with particles that have mass (all particles except the gluon and the photon).

 Standard image High-resolution image Export PowerPoint slide

The development of the Standard Model of particle physics started in the early 1970s and has so far withstood every experimental test. The latest success was the verification of the Brout–Englert–Higgs field by ATLAS and CMS at CERN's Large Hadron Collider in 2012. Both experiments successfully detected the quantised excitation of the BEH field—the so-called Higgs boson. This confirmed the Higgs mechanism, which associates elementary particles with their respective mass.

One might think that, given this great success story, the particle physics community is happy and content. But, as a matter of fact, the exact opposite is the case! While the Standard Model of particle physics provides a unique and elegant description of fundamental interactions between elementary particles, it is assumed that this quantum field theory is only part of a broader theory. Indeed, the Standard Model of particle physics describes only about 5% of the universe. It does not explain dark matter, which accounts for approximately 25% of the universe—not to speak of dark energy, which supposedly adds the remaining 70% of the universe. Their description can only be achieved by theories which go beyond the Standard Model of particle physics. Hence, any signs of irregularities between the predictions of the Standard Model of particle physics and experimental results would spark tremendous excitement. After all, this would enable the physics community to update and modify the current description of nature.

2. The Lagrangian

The mathematical formulation of the Standard Model of particle physics is complex. However, all information is encoded in a compact description—the so-called 'Lagrangian'. Nonetheless, this 'compact' formulation still fills several pages [1]. That is why an ultra-short, four-line version of the Lagrangian is also commonly shown. This particular formula draws a lot of attention and everyone who visits CERN will come across it at some point. For example, the CERN gift shop sells t-shirts and coffee mugs (see figure 2) featuring this four-line version of the Lagrangian. This can be especially challenging for physics teachers, who might then be asked by interested students to explain the meaning and the physics behind the Lagrangian. Therefore, we want to give a qualitative description of the individual terms of the Lagrangian, explain the fundamental processes behind them, and associate them to their respective Feynman diagrams.


Figure 2.

Figure 2. Lagrangian on a coffee mug.

 Standard image High-resolution image Export PowerPoint slide

Feynman diagrams are pictorial representations of the underlying mathematical expressions describing particle interactions. Even though particle physicists will use a set of 'Feynman rules' to translate a diagram into a mathematical expression, the diagram on its own is a useful tool to visualise and understand what is happening in a certain interaction without the need for mathematics. Every line in a Feynman diagram represents a particle, with different styles of line for the various types of particles. In this article, we additionally use different colours to indicate the associated interactions (see figures 1 and 3). Thus, a straight black line with an arrow denotes a matter particle, a wavy yellow line represents either a photon or a weak boson, a coiled green line corresponds to a gluon, and a dashed blue line indicates a Higgs boson. The time axis of a Feynman diagram is often oriented horizontally. However, the reading direction is only important for the physical interpretation, since all vertices can be rotated arbitrarily. Hereafter, we will read all Feynman diagrams from left to right with a horizontal time axis: lines starting on the left represent particles present before the interaction, and lines ending on the right represent particles present after the interaction. The arrow for matter particle lines should not be mistaken as an indicator of the direction of movement, since it only indicates whether the line belongs to a particle (with an arrow pointing to the right) or an anti-particle (with an arrow pointing to the left). Every vertex, where three or four lines meet, represents an interaction between particles. There are different possible vertices for QED, QFD, QCD, and BEH interactions, and these form the elementary building blocks of a Feynman diagram. In addition, Feynman diagrams are 'flexible': lines should not be understood as rigid, but as a combination of all possible paths a particle can take. Therefore, both individual lines and Feynman diagrams as a whole can be freely rotated.


Figure 3.

Figure 3. Some examples of Feynman diagrams that are included in $-\frac{1}{4}\,{{F}_{\mu \nu}}{{F}^{\mu \nu}}$ : gluon–gluon-interaction (3-gluon vertex and 4-gluon vertex), weak–weak interaction, and weak-photon interaction.

 Standard image High-resolution image Export PowerPoint slide

3. The elements of the Lagrangian

The Standard Model of particle physics is a quantum field theory. Therefore, its fundamental elements are quantum fields and the excitations of these fields are identified as particles. For example, the quantised excitation of the electron field is interpreted as an electron. From our viewpoint, it is not only permissible, but even advisable to speak directly of elementary particles instead of field excitations when discussing basic principles of particle physics qualitatively in high school.

A word of warning: as mentioned before, the Lagrangian is an extremely compact notation. Theoretical particle physicists normally know when to sum over which indices, what different abbreviations and derivatives mean, and when to consider each of the fundamental interactions. In the physics classroom, however, it is very difficult to achieve a deep-level understanding because the required mathematics skills go far beyond high-school level. Hence, we will only treat the ultra-short Lagrangian in figure 2 on a term-by-term basis, without detailing how different fields are combined inside these terms.

3.1. What does the $\mathcal{L}$  stand for?

$\mathcal{L}$  stands for the Lagrangian density, which is the density of the Lagrangian function L in a differential volume element. In other words, $\mathcal{L}$  is defined such that the Lagrangian L is the integral over space of the density: $L={\int}^{}{{\text{d}}^{3}}x~\mathcal{L}$ . In 1788, Joseph–Louis Lagrange introduced Lagrangian mechanics as a reformulation of classical mechanics. It allows the description of the dynamics of a given classical system using only one (scalar) function L  =  T  −  V, where T is the kinetic energy and V the potential energy of the system. The Lagrangian is used together with the principle of least action to obtain the equations of motion of that system in a very elegant way.

When handling quantum fields, instead of the discrete particles of classical mechanics, the Lagrangian density describes the kinematics and dynamics of the quantum system. Indeed, the Lagrangian density of quantum field theory can be compared to the Lagrangian function of classical mechanics. Hence, it is common to refer to $\mathcal{L}$  simply as 'the Lagrangian'.

3.2. Term 1: $-\frac{1}{4}\,{{F}_{\mu \nu}}{{F}^{\mu \nu}}$

This term is the scalar product of the field strength tensor ${{F}_{\mu \nu}}$  containing the mathematical encoding of all interaction particles except the Higgs boson, where μ and ν are Lorentz indices representing the spacetime components4. It contains the necessary formulation for these particles to even exist, and describes how they interact with each other. The contents differ depending on the properties of the interaction particles. For example, photons, the interaction particles of the electromagnetic interaction, cannot interact with each other, because they have no electric charge. Therefore, the contribution of the electromagnetic interaction consists only of a kinetic term, the basis for the existence of free photons. The description of gluons and the weak bosons also includes interaction terms in addition to the kinetic terms. Gluons, for example, are colour-charged themselves and can therefore also interact with each other (see figure 3). This leads to an exciting consequence: the Standard Model of particle physics predicts the existence of bound states consisting only of gluons, so-called 'glueballs'. However, no experiment has detected glueballs thus far.

3.3. Term 2: $\text{i}\bar{\psi}{\not D}\psi $

This term describes how interaction particles interact with matter particles. The fields ψ and $\bar{\psi}$ describe (anti)quarks and (anti)leptons5. The bar over $\bar{\psi}$  means that the corresponding vector must be transposed and complex-conjugated; a technical trick to ensure that the Lagrangian density remains scalar and real. ${\not D}$  is the so-called covariant derivative, featuring all the interaction particles (except the Higgs), but this time without self-interactions.

The beauty of this term is that it contains the description of the electromagnetic, weak, and strong interactions. Indeed, while all three fundamental interactions are different, the basic vertices by which they can be visualised look quite similar. We will start by discussing the most important interaction of our daily lives, the electromagnetic interaction. Here, pair production or annihilation of electrons and positrons, and the absorption or emission of photons by electrons, are prominent examples. All four of these processes can be represented using Feynman diagrams with the same basic vertex. For example, the left part of figure 4(a) shows the annihilation of an electron and a positron (remember that we use a reading direction from left to right). The next diagram is produced by rotating the first diagram by 180°, and is now a representation of pair production. Rotating the vertex further, we arrive at the third diagram, which describes the absorption of a photon by an electron. Last, the fourth permutation of the vertex gives the diagram for photon emission, also known as 'Bremsstrahlung'.


Figure 4.

Figure 4. Basic vertices of the electromagnetic interaction (a), strong interaction (b), and weak interaction (c). From left to right: examples of annihilation, pair production, absorption, and emission.

 Standard image High-resolution image Export PowerPoint slide

If we now look at the basic vertex of the strong interaction (see figure 4(b)), we notice that it looks very similar to the vertex of the electromagnetic interaction. For example, an anti-quark and a corresponding quark transforming into a gluon can be described as an annihilation process. In the reverse reading direction, this process can also be interpreted as pair creation, where a gluon transforms into a quark and an associated anti-quark. Additionally, by rotating the vertex further, we obtain the Feynman diagrams for gluon absorption and gluon emission.

Last but not least, the transformation processes of the weak interaction can be illustrated in a similar way as well (figure 4(c)). Again, depending on the orientation, the example represents annihilation or pair production of an electron and an anti-electron-neutrino, and absorption or emission of a Wboson. The weak interaction differs from the electromagnetic and the strong interactions in that it transforms one matter particle into another, for example an electron into an electron-neutrino and vice versa. We consider processes of the weak interaction involving a W boson to be particularly interesting for introduction in the classroom. For example, the transformation of a down-quark into an up-quark by emission of a virtual W boson, which itself transforms into an electron and an anti-electron-neutrino: ${{n}^{0}}\to {{p}^{+}}+{{e}^{-}}+\overline{{{\nu}_{e}}}$  is already part of many physics curricula [24] (see figure 5). In many physics textbooks this process is called 'beta-minus decay' (or in the case of ${{p}^{+}}\to {{n}^{0}}+{{e}^{+}}+{{\nu}_{e}}$ : 'beta-plus decay'). The emitted electron (or positron) is then introduced as 'beta radiation'. Here, we recommend using the term 'transformation' instead of 'decay', as this more accurately describes the physical process. In addition, doing so can prevent the triggering of misconceptions of the electron or positron as 'fragments' of the original neutron or proton. Instead of using the word 'beta radiation', we also recommend referring directly to emitted electrons (or positrons) to focus more strongly on the particle aspect of the transformation process.


Figure 5.

Figure 5. Beta transformation: a neutron's down-quark transforms into an up-quark, emitting a virtual W boson. The virtual W boson then transforms into an electron and an anti-electron-neutrino. Macroscopically, a neutron (n0) becomes a proton (p+). Note: the weak interaction allows only particle transformations between two specific elementary particles, so-called 'weak isospin doublets'. Prominent examples are the electron-neutrino and electron doublet $\left({{\nu}_{e}},{{e}^{-}}\right)$ , and the up-quark and down-quark doublet $(u,d)$ .

 Standard image High-resolution image Export PowerPoint slide

Overall, this second term of the Lagrangian is of special importance for our everyday life, and therefore merits discussion in the physics classroom. Indeed, apart from gravity, all physical phenomena can be described on a particle level by the basic vertices of the strong, weak, and electromagnetic interaction. Furthermore, given that the strong and weak interactions play a minor role in high-school curricula, almost all physical phenomena can be described using the basic vertex of the electromagnetic interaction (figure 4(a)). However, as discussed above, once this basic vertex is introduced, it is possible to draw connections to the basic vertices of the strong interaction (figure 4(b)) and the weak interaction (figure 4(c)) as well.

3.4. Term 3: $\text{h}.\text{c}.$

This term represents the 'hermitian conjugate' of term 2. The hermitian conjugate is necessary if arithmetic operations on matrices produce complex-valued 'disturbances'. By adding $\text{h}.\text{c}.$ , such disturbances cancel each other out, thus the Lagrangian remains a real-valued function. Actually, the addition of $\text{h}.\text{c}.$  is not required for term 2, since term 2 is self-adjoint. Therefore, this term is often omitted. Anyway, $\text{h}.\text{c}.$  should not be taken literally. Theorists often use it as a reminder: 'If a term changes when conjugating it, then add $\text{h}.\text{c}.$ ! If nothing changes (because it is self-adjoint), then add nothing'. This term does not have a physical meaning, but it ensures that the theory is sound.

Tip: we recommend the CERN-wide interpretation of term 3: $\text{h}.\text{c}.=\text{hot}\;\,\text{cof}\,\text{fee}$ . After all, the Lagrangian is printed on a coffee mug for a good reason. It is therefore advisable to take a break at half time with a mug of coffee. Afterwards, it will be easier to enjoy the full beauty of terms 4 to 7, which we explain next.

3.5. Term 4: ${{\psi}_{i}}{{y}_{ij}}{{\psi}_{j}}\phi $

This term describes how matter particles couple to the Brout–Englert–Higgs field phgr and thereby obtain mass. The entries of the Yukawa matrix yij represent the coupling parameters to the Brout–Englert–Higgs field, and hence are directly related to the mass of the particle in question. These parameters are not predicted by theory, but have been determined experimentally.

Parts of this term still cause physicists headaches: it is still not clear why neutrinos are so much lighter than other elementary particles, in other words, why they couple only very weakly to the BEH field. In addition, it is still not possible to derive the entries of the Yukawa matrix in a theoretically predictive way.

It is known that particles with high mass, in other words with a strong coupling to the Brout–Englert–Higgs field, also couple strongly to the Higgs boson. This is currently being verified experimentally at the LHC, where Higgs bosons are produced in particle collisions. However, Higgs bosons transform into particle–antiparticle pairs after about 10−22 s. Depending on their mass, i.e. their coupling parameter, certain particle–antiparticle pairs are much more likely, and thus easier to observe experimentally, than others. This is because the coupling parameter, which describes the coupling to the Higgs boson, is simply the mass of the particle itself. The Higgs boson is thus more likely to be transformed into pairs of relatively more massive particles and anti-particles. Measurements by the ATLAS detector show, for example, evidence of the direct coupling of the Higgs boson to tauons [5], see figure 6.


Figure 6.

Figure 6. A Higgs boson transforms into a pair of tauon and anti-tauon.

 Standard image High-resolution image Export PowerPoint slide

3.6. Term 5: $\text{h}.\text{c}.$

See term 3, but here this term is really necessary, since term 4 is not self-adjoint. While term 4 describes the interaction between a Higgs particle and matter particles, term 5, the hermitian conjugate of term 4, describes the same interaction, but with antimatter particles. Depending on the interpretation, however, we recommend at least one more mug of hot coffee.

3.7. Term 6: $|{{D}_{\mu}}\phi {{|}^{2}}$

This term describes how the interaction particles couple to the BEH field. This applies only to the interaction particles of the weak interaction, which thereby obtain their mass. This has been proven experimentally, because couplings of W bosons to Higgs bosons (figure 7) have already been verified. Photons do not obtain mass by the Higgs mechanism, whereas gluons are massless because they do not couple to the Brout–Englert–Higgs field. Furthermore, rotating the process depicted in figure 7by 180° leads to an important production mechanism of Higgs bosons in the LHC: the so-called 'vector-boson fusion' in which, for example, a W+ boson and a W boson transform into a Higgs boson (see figure 8).


Figure 7.

Figure 7. One example of a Feynman diagram that is encoded in $|{{D}_{\mu}}\phi {{|}^{2}}$ . A Higgs boson transforms into a pair of W+ and W bosons.

 Standard image High-resolution image Export PowerPoint slide


Figure 8.

Figure 8. Possible vector-boson fusion process from two colliding protons. A down-quark emits a W boson and an up-quark emits a W+ boson. The two W bosons transform into an electrically neutral Higgs boson.

 Standard image High-resolution image Export PowerPoint slide

3.8. Term 7: $-V\left(\phi \right)$

This term describes the potential of the BEH field. Contrary to the other quantum fields, this potential does not have a single minimum at zero but has an infinite set of different minima. This makes the Brout–Englert–Higgs field fundamentally different and leads to spontaneous symmetry-breaking (when choosing one of the minima). As discussed for terms 4 and 6, matter particles and interaction particles couple differently to this 'background field' and thus obtain their respective masses. Term 7 also describes how Higgs bosons couple to each other (see figure 9). The Higgs boson, the quantised excitation of the BEH field, was experimentally confirmed at CERN in 2012. In 2013, François Englert and Peter Higgs were awarded the Nobel Prize in Physics for the development of the Higgs mechanism.


Figure 9.

Figure 9. Diagrams of Higgs self-interaction (3-Higgs vertex and 4-Higgs vertex) that originate from $-V\left(\phi \right)$ .

 Standard image High-resolution image Export PowerPoint slide

4. Conclusions, and what about the second mug?

Our experience at CERN is that both high school students and teachers are greatly fascinated by the Lagrangian. Hence, introducing it in the classroom can contribute positively when discussing particle physics. However, due to the complex level of mathematical formalism used in the Lagrangian, it is probably not favourable to aim for a complete, in-depth discussion. Instead, we recommend starting with an introduction to the individual terms of the Lagrangian by focusing on their general interpretation (see figure 10). Based on this first glimpse into the world of quantum field theory, the associated Feynman diagrams can be discussed, which allow students to gain insight into the precise prediction power of the Standard Model of particle physics. This can even be done in a playful way: by taking conservation of charge (electric, weak, and colour) into account, fundamental vertices can be attached to each other like dominoes. This enables students to determine which processes and interactions between elementary particles are possible. For instance: 'Start with a muon. Is it possible for the muon to transform in such a way that at the end of this process, among other particles, an electron exists?'


Figure 10.

Figure 10. Short version of the Lagrangian. The terms coloured in red are governed by the electromagnetic, weak, and strong interactions, while those that are coloured blue are governed by interactions with the Brout–Englert–Higgs field. Most everyday phenomena, such as light, electricity, radioactivity, and sound, are described by the second term, 'interactions between matter particles'.

 Standard image High-resolution image Export PowerPoint slide

When discussing Feynman diagrams in the classroom, however, it is important to point out that these diagrams are only visualisations of the Standard Model of particle physics. The interpretation of Feynman diagrams is strictly limited to fundamental processes and care should be taken to avoid any notion of misleading interpretation of Feynman diagrams as 2D motion diagrams. Once Feynman diagrams are established, an additional step can be the introduction of Feynman rules [6] and the coupling parameters of the respective interaction particles. Together with conservation of energy and momentum, one can then make full use of Feynman diagrams, which even allow determinations of the probabilities of transformation processes. For instance, this technique is used to calculate the production rates of Higgs bosons at the Large Hadron Collider, which are then compared with measurements from CMS and ATLAS. As mentioned above, any deviation between the two would open the door to new physics and even more exciting times in particle physics.

Although the Standard Model of particle physics is an extremely successful theory, it is far from being a complete description of the universe: according to today's models, the universe consists only of 5% visible matter, which can be described by the Standard Model of particle physics. This means future generations of physicists will still have plenty of new physics to discover! Currently, the hunt is on for theories which go beyond the Standard Model of particle physics to incorporate dark matter and dark energy.

Another shortcoming of the Standard Model of particle physics is the absence of a description of gravity. The search for a unification of all four fundamental interactions through a single theory—the so-called Theory of Everything—can be seen as the quest for the Holy Grail of our times. It is probably a safe bet to say that this ambition will keep supersymmetry researchers and string-theorists busy for quite some time. In the meantime, there are two coffee mugs in the offices at CERN: one for the Standard Model of particle physics and one for Einstein's theory of general relativity (see figure 11). We hope that with the help of further hot coffees we will soon need only one mug...


Figure 11.

Figure 11. Standard Model of particle physics and Einstein's theory of general relativity.

 Standard image High-resolution image Export PowerPoint slide

Footnotes

  • 4

    In this case, one has to sum over the indices according to the Einstein summation convention.

  • 5

    The symbol ψ is also used to represent a wave function in classical quantum mechanics. Although this is related to the field representation we use, the two are not exactly the same.

References

Just think: The challenges of the disengaged mind (les défis de l'esprit désengagé)

Just think: The challenges of the disengaged mind

In 11 studies, we found that participants typically did not enjoy spending 6 to 15 minutes in a room by themselves with nothing to do but think, that they enjoyed doing mundane external activities much more, and that many preferred to administer electric shocks to themselves instead of being left alone with their thoughts. Most people seem to prefer to be doing something rather than nothing, even if that something is negative.

Just think: les défis de l'esprit désengagé

Dans 11 études, nous avons constaté que les participants n’aimaient généralement pas passer de 6 à 15 minutes dans une pièce par eux-mêmes avec rien d'autre à faire que penser, qu'ils ont préferé faire des activités mondaines, et que beaucoup ont préféré s'administrer des chocs électriques à eux-mêmes au lieu d'être laissés seuls avec leurs pensées. La plupart des gens semblent préférer faire quelque chose plutôt que rien, même si ce quelque chose est négatif.

Reference :

Wilson, Timothy D., et al. "Just think: The challenges of the disengaged mind." Science345.6192 (2014): 75-77.
Click here to view the paper

https://drive.google.com/open?id=1i4a25v3ZHI0zbMRrff688KhbI9jpEKgQ

De la tyrannie des chiffres : De l’excès de mesure… au paradoxe de la mesure

De la tyrannie des chiffres

On n’a pas attendu le numérique pour produire des métriques, mais celui-ci a incontestablement simplifié et amplifié leur production. Quitte à produire un peu n’importe quelles mesures puisque celles-ci semblent désormais accessibles et ajustables en quelques clics. On connaît la rengaine : « ce qui ne peut être mesuré ne peut être géré » (même si la formule de Peter Drucker est en fait plus pertinente que ce que nous en avons retenu). Est-ce pour autant qu’on ne gère que ce que l’on sait chiffrer ?

Non. C’est en tout cas ce que répond le stimulant petit livre du professeur d’histoire de l’université catholique d’Amérique, Jerry Z. Muller(@jerryzmuller), The Tyranny of Metrics (La tyrannie des métriques, Princeton University Press, 2018, non traduit), qui se révèle être un très bon petit guide pour nous inviter à prendre un peu de recul sur notre obsession pour les chiffres.

Le propos de Jerry Muller relève pour beaucoup du simple bon sens.

« Il y a des choses qui peuvent être mesurées. Il y a des choses qui valent d’être mesurées. Mais ce que nous pouvons mesurer n’est pas toujours ce qui vaut d’être mesuré ; ce qui est mesuré peut n’avoir aucune relation avec ce que nous voulons vraiment savoir. Le coût de la mesure peut-être plus fort que ses bénéfices. Les choses que nous mesurons peuvent nous éloigner des choses dont nous voulons vraiment prendre soin. Et la mesure nous apporte souvent une connaissance altérée – une connaissance qui semble solide, mais demeure plutôt décevante. »

De l’excès de mesure… au paradoxe de la mesure

Relier la responsabilité aux mesures et à leur transparence s’avère souvent décevant. La responsabilité signifie être responsable de ses actions. Mais, par un glissement de sens, la responsabilité signifie souvent démontrer une réussite via des mesures standardisées, comme si seulement ce qui était mesurable comptait vraiment. Pour Muller, nous sommes obsédés par les chiffres. Nous avons une pression irrépressible à mesurer la performance, à en publier les chiffres, et à récompenser les performances depuis ceux-ci, quand bien même l’évidence nous montre que cela ne fonctionne pas si bien. Pour Muller, notre problème n’est pas tant la mesure que ses excès. Trop souvent nous préférons substituer des chiffres, des mesures, à un jugement personnel. Trop souvent le jugement est compris comme personnel, subjectif, orienté par celui qui le produit, alors que les chiffres, en retour, eux, sont supposés fournir une information sûre et objective. S’il y a beaucoup de situations où prendre des décisions basées sur une mesure est supérieur au jugement basé sur l’expérience… reste que les chiffres sont utiles quand l’expérience de quelqu’un est limitée pour développer son intuition. Certes, comme le montrait le livre Moneyball, l’analyse statistique est parfois capable de mesurer des caractéristiques négligées qui sont plus significatives que celles sur lesquelles s’appuie l’expérience et l’intuition. Mais ce n’est pas toujours le cas. Trop souvent, les métriques sont contre-productives, notamment quand elles peinent à mesurer ce qui ne l’est pas, à quantifier ce qui ne peut l’être.

Muller montre par de nombreux exemples comment nous nous ingénions à contourner les mesures, à l’image des hôpitaux britanniques qui avaient décidé de pénaliser les services dont les temps d’attente aux urgences étaient supérieurs à 4 heures. La plupart des hôpitaux avaient résolu le problème en faisant attendre les ambulances et leurs patients en dehors de l’hôpital ! Comme le rappelle la loi de Goodhart : « lorsqu’une mesure devient un objectif, elle cesse d’être une bonne mesure. » Plus qu’une obsession, nous sommes coincés dans un paradoxe de la mesure. Plus nous en produisons, plus elles sont précises, plus nous nous ingénions à les contourner à mesure qu’elles ne parviennent pas à remplir ce qu’elles étaient censées accomplir. Pour Muller, si les chiffres sont potentiellement des outils précieux, leurs vertus nous a été survendu, et leurs coûts toujours sous-estimés, comme l’explique le sociologue Jérôme Denis dans son livre Le travail invisible des données, qui souligne combien celles-ci sont toujours travaillées, « obtenues »… et donc que les standards qu’elles sont censées produire ont toujours un caractère « potentiellement conflictuel » !

La transparence des chiffres n’induit pas la responsabilité

Pour Muller, l’obsession des métriques repose sur : la croyance qu’il est possible et désirable de remplacer le jugement acquis par l’expérience personnelle et le talent, avec des indicateurs numériques de performance comparative basés sur des données standardisées ; la croyance que rendre ces mesures publiques (c’est-à-dire transparentes) assure que les institutions effectuent leurs buts (c’est-à-dire leur responsabilité) ; la croyance que la meilleure façon de motiver les gens dans les organisations est de les attacher à des récompenses ou des pénalités depuis ces mesures de performance (que les récompenses soient monétaires ou réputationnelles). L’obsession des métriques repose sur la persistance de ces croyances malgré les conséquences négatives qu’elles entraînent quand elles sont mises en pratique. Mais, si cela ne fonctionne pas, c’est d’abord et avant tout parce que tout ce qui est important n’est pas toujours mesurable et beaucoup de ce qui est mesurable n’est pas toujours important. À nouveau, toute mesure utilisée comme objectif, utilisée comme outil de contrôle devient douteuse. Par nature, toute mesure sera détournée ! Pire, rappelle Muller : forcer les gens à se conformer à des objectifs mesurés à tendance à étouffer l’innovation et la créativité, et renforce la poursuite d’objectifs à court terme sur ceux à long terme. La mesure a fait plus de progrès que le progrès lui-même, ironise Muller.

Le petit livre de Jerry Muller assène bien des évidences, certes. Mais des évidences qui font du bien, tant la démultiplication des chiffres dans le monde dans lequel nous vivons semble nous avoir fait perdre de vue toute raison.

Il souligne que trop souvent, on mesure le plus ce qui est le plus facile à mesurer, le plus simple. Mais c’est rarement le plus important. En mesurant le plus simple, on en oublie la complexité : ainsi quand on mesure les objectifs d’un employé, on oublie souvent que son travail est plus complexe que cela. On mesure plus facilement les sommes dépensées ou les ressources qu’on injecte dans un projet que les résultats des efforts accomplis. Les organisations mesurent plus ce qu’elles dépensent que ce qu’elles produisent. Bien souvent, la mesure, sous prétexte de standardisation, dégrade l’information, notamment pour rendre les choses comparables au détriment des ambiguïtés et de l’incertitude.

Quant aux manières de se jouer des métriques, elles sont là aussi nombreuses : simplifier les objectifs permet souvent de les atteindre au détriment des cas difficiles ; améliorer les chiffres se fait souvent en abaissant les standards… sans parler de la triche, on ne peut plus courante.

Les métriques au détriment du jugement, les chiffres au détriment de l’intangible

L’historien, bien sûr, tente de retracer rapidement l’origine de la mesure et tente d’expliquer pourquoi elle est devenue si populaire. C’est vraiment avec Frederick Taylor, cet ingénieur américain qui va inventer le management scientifique au début du 20e siècle, que la mesure va s’imposer. Le but même du taylorisme était de remplacer le savoir implicite des ouvriers avec des méthodes de production de masse, développées, planifiées, surveillées et contrôlées par les managers. Le Taylorisme va s’imposer en promouvant l’efficacité par la standardisation et la mesure, d’abord dans l’industrie avant de coloniser avec le siècle, tous les autres secteurs productifs. Le Taylorisme a été développé par les ingénieurs, mais aussi par les comptables. L’expertise nécessitait des méthodes quantitatives. Les décisions basées sur des chiffres étaient vues comme scientifiques, comme objectives et précises. La performance de toute organisation pouvait alors être optimisée en utilisant les mêmes outils et techniques de management. Ceux qui calculaient les coûts et les marges de profits s’alliaient avec ceux qui retiraient l’expérience des travailleurs pour les fondre dans des machines qui décomposaient les tâches pour mieux mesurer chacune et pour les rendre non spécialisée, permettant de remplacer n’importe quel travailleur par un autre. Le calcul s’est immiscé partout. Le biais matérialiste également : il était partout plus facile de mesurer les apports et rendements tangibles que les facteurs humains intangibles – comme la stratégie, la cohésion, la morale… La confiance et la dépendance dans les chiffres ont minimisé et réduit le besoin de connaître les institutions de l’intérieur. « Ce qui pouvait être mesuré a éclipsé ce qui était important ». Et la culture du management a exigé toujours plus de données… mais en parvenant à mesurer certains critères plutôt que d’autres, à favoriser donc certaines valeurs au détriment d’autres.

Muller explique encore que si les métriques sont devenues si populaires c’est parce qu’elles permettaient de se passer du jugement individuel. Elle permettait de remplacer ceux qui avaient la connaissance pour juger, par n’importe qui sachant lire les chiffres. L’objectivité des chiffres semblait supérieure au jugement subjectif et ce d’autant que les chiffres et les courbes étaient compréhensibles par tous. Les métriques se sont imposées dans les secteurs où la confiance était faible. Les décisions humaines sont devenues trop dangereuses à mesure qu’elles impliquaient une trop grande complexité de facteurs : d’où la prolifération des métriques, des process, des règles… La demande d’un flux constant de rapports, de données, de chiffres… a finalement diminué l’autonomie de ceux qui étaient les plus bas dans les organisations. La feuille de calcul est devenue l’outil phare du calcul, une façon de voir la réalité par les chiffres. La feuille de calcul qu’analysait Paul Dourish a créé une illusion d’analyse en profondeur. Alors que les données sont toujours plus faciles à collecter et à traiter, le chiffre et son traitement sont devenus la réponse à toute question posée par les organisations.

Dans les organisations, la mesure a remplacé la confiance. « Les nombres sont vus comme une garantie d’objectivité, un moyen de remplacer la connaissance intime et la confiance ». Les indicateurs de performance sont devenus des stratégies. Muller rappelle que la connaissance pratique est le produit de l’expérience… Si elle peut-être apprise par la pratique, elle ne se résume pas en formule générale. Alors que la connaissance abstraite, chiffrée, n’est qu’une question de technique, qui peut être systématisée, communiquée et appliquée.

Dans son livre, Muller évoque nombre de secteurs où les chiffres n’ont pas produit ce qu’on attendait d’eux. Dans le domaine scolaire, en médecine, dans le domaine militaire, dans la police et bien sûr dans les affaires… les chiffres sont souvent mal utilisés et ne parviennent pas à mesurer l’important. Bien souvent, les chiffres déplacent les objectifs, favorisent le court-termisme, découragent la prise de risque, l’innovation, la coopération… coûtent du temps (« Bien souvent, la métrique du succès est le nombre et la taille des rapports générés, comme si rien n’était accompli jusqu’à ce qu’il soit extensivement documenté »), voire sont dommageable pour la productivité elle-même (« Une question qui devrait être posée est de savoir dans quelle mesure la culture des métriques a elle-même contribué à la stagnation économique ? »)…

Interroger la légitimité des chiffres et assumer ses jugements !

Pour conclure son livre, Jerry Muller propose une checklist pour évaluer la légitimité de ce que vous cherchez à mesurer. Malgré ses critiques, nourries, il ne rejette pas tout chiffre, mais souligne qu’on devrait plus souvent penser à s’en passer.

Pour lui, il faut d’abord se poser la question de ce que l’on cherche à mesurer en se souvenant que plus un objet mesuré est influencé par la procédure de mesure, moins il est fiable. Et que ce constat empire quand la mesure repose sur l’activité humaine, plus capable de réagir au fait d’être mesurée, et pire encore quand des systèmes de récompenses ou de punition sont introduits…

L’information est-elle utile ? Le fait que quelque chose soit mesurable ne signifie pas qu’il faille le faire (au contraire, bien souvent la facilité à mesurer est inversement proportionnelle à sa signification !). « Posez-vous la question de ce que vous voulez vraiment savoir ! », conseille l’historien.

Est-ce que plus d’information est utile ? Si la mesure est utile, cela ne signifie pas pour autant que plus de mesure est plus utile.

D’autres indicateurs sont-ils disponibles ?

À qui profite la mesure ? Pour qui l’information sera-t-elle transparente ? – Et donc, pour qui ne le sera-t-elle pas ?

Quels sont les coûts pour acquérir ces métriques ?

Qui demande des chiffres et pourquoi ?

Comment et par qui ces mesures sont-elles faites (notamment pour souligner que bien souvent les métriques des uns ne devraient pas être celles des autres) ?

Comment corrompre vos chiffres ou faire diversion sur les objectifs ?

Souvenez-vous enfin que reconnaître ses limites est le début de la sagesse. Tout ne peut pas être amélioré par des chiffres. Et rendre un problème plus transparent par des chiffres peut rendre le problème plus saillant sans le rendre plus soluble.

Les métriques ne sont pas là pour remplacer le jugement, rappelle Muller, mais plutôt pour l’informer. Et pour cela, cela nécessite aussi de savoir quel poids donner aux mesures, savoir reconnaître ce qu’elles déforment, apprécier aussi ce qui n’est pas mesurable.

Oui, Jerry Muller semble égrainer des évidences. Mais c’est pour mieux souligner combien les chiffres participent à nous les faire perdre de vue. Souvenons-nous de ce que disait Dan Ariely : la précision, l’exactitude, l’immédiateté, la granularité ou la transparence ne sont pas toujours les meilleures façons de présenter les choses. La précision des chiffres ne rend pas les données plus utiles. Parfois produire des données moins fines, des indicateurs sans chiffres… sont des options qui peuvent aisément remplacer des données qui calculent mal ce qu’elles sont censées calculer… Trop souvent, les chiffres servent à faire passer des jugements dans les biais qui les masquent. La précision des chiffres, bien souvent, comme le rappelle le journaliste spécialiste des données Nicolas Kayser-Bril sur son blog, sert à nous faire croire en leur fiabilité, alors qu’ils sont comme tout savoirs, incertains !

À l’heure où le monde semble si facilement mesurable, souvenons-nous que ces mesures ne produisent pas toujours du sens, au contraire. Comme disait Pablo Jensen, le modèle du social que les chiffres induisent présupposent une forme de social qui n’a rien de la neutralité sous laquelle elle se présente.

Le monde numérique, qui produit des chiffres avec tant de facilité, peine bien souvent à prendre un peu de recul sur la validité des métriques qu’il démultiplie, oubliant de trouver le bon indicateur, qui n’est que rarement celui qui est produit. Sans compter que les indicateurs des uns ont tendance à devenir les indicateurs des autres, alors que trop souvent les métriques devraient être différentes et différenciées, afin que les indicateurs des uns ne soient pas nécessairement les indicateurs des autres.

La facilité à produire une tyrannie ne doit pas nous faire oublier ce que nous produisons. Si nous avons les moyens de la produire, il nous faut nous interroger sur comment y résister et comment réduire, atténuer voire contester cette production. Si nous sommes capables d’imposer une tyrannie, il faut nous interroger sur comment la défaire.

Source : Hubert Guillaud,  http://internetactu.blog.lemonde.fr/2018/09/29/de-la-tyrannie-des-chiffres/

Teacher characteristics and their effects on student test scores: A best-evidence review

Ci-dessous, un article de revue qui s'intéresse entre la relation entre la réussite des élèves en fonctions du profil des enseignants :

Teacher characteristics and their effects on student test scores: A best-evidence review

by : Johan Coenen, Wim Groot, Henriette Maassen van den Brink and  Chris van Klaveren


Coenen, J., Groot, W., van den Brink, H. M., & Van Klaveren, C. Teacher characteristics and their effects on student test scores: A best-evidence review.

 

Des smartphones pour faire des expériences de physique au lycée et à l’université

Des smartphones pour faire des expériences de physique au lycée et à l’université

Deux milliards de smartphones sur la Terre. 25 millions de possesseurs en France cette année. Ça augmente toujours. Une épidémie galopante, puisque on passe de rien à un milliard en bien moins de dix ans. En 1991, un iPhone aurait coûté 2,6 millions d'euros est-il écrit dans un article récent. S'il en était besoin, cela souligne la puissance technologique de ces appareils tellement bien adaptés à nous, pauvres humains, que nous ne la voyons plus vraiment. C’est vraiment un chef d'œuvre du design industriel que d’avoir réussi cela.


Utilisation des smartphones dans l'éducation


Pour les enseignants en science, le regard porté sur ses appareils peut être tout autre.

Une simple bille en verre de 1 mm environ permet de s’en rendre compte. Placée sur l'objectif de la caméra du smartphone, elle en fait un microscope optique capable de distinguer les globules rouges. C’est un retour incroyable aux origines de la microscopie optique et à son précurseur Antoine Van Leeuwenhoek (1632-1723). Une bille en verre devant l'œil est le premier microscope qu’il a construit. Il a permis de découvrir les spermatozoïdes. Aujourd’hui à la place de l'œil, derrière la bille, on place la caméra du smartphone et son détecteur CMOS. C’est bien plus pratique et bien plus puissant. La technologie associée au numérique simplifie même le microscope optique. L'image enregistrée peut être immédiatement partagée sur le web. En fait une goutte d’eau placée sur l’entrée de la caméra fait parfaitement l’affaire.

La revue des professeurs de physique aux Etats-Unis, The Physics Teacher, ne s'y est pas trompée et a créé la rubrique mensuelle iPhysicsLabs qui montre combien un smartphone est un instrument de mesure puissant au service de la démarche expérimentale en classe à différents niveaux et utilisable dans une grande diversité de sujets enseignés en physique. La plate-forme européenne pour les professeurs de sciences, Science on Stage, a aussi constitué un groupe de travail «iStage 2: Smartphones in Science Teaching» auquel participent Philippe Jeanjacquot et Francoise Morel-Deville de l'Institut Français d'Education à l'Ecole Normale Supérieure de Lyon (voir les ressources Smartphones et Education). Plusieurs groupes de recherche allemands (Kaiserslautern , Munich,…) en didactique de la physique en ont fait un projet de recherche.

Cet intérêt n’est en fait pas une surprise. Avec les smartphones, chaque élève, peut disposer d'un accéléromètre 3D, d'un gyroscope 3D, d'un magnétomètre 3D, de deux caméras de haute performance, d'une source de lumière blanche intense et froide (pas de LED en 1991), d'un microphone et d'un haut-parleur. Excusez du peu. Et en plus, de nouveaux capteurs viennent périodiquement compléter la panoplie. Les derniers smartphones intègrent des capteurs très performants de température et de pression. C’est la porte ouverte à l’étude expérimentale par les smartphones de la thermodynamique, la science des échanges d’énergie et des machines thermiques. Tout ceci est donc intégré, tient dans la main et peut stocker l'ensemble de ces données ou les envoyer en temps réel jusqu'à cent fois par seconde à un ordinateur. A partir de là, les capteurs microsystèmes que sont l'accéléromètre et le gyroscope vous permettent d'étudier expérimentalement et en détail, les grands classiques des salles de cours comme le pendule ou la rotation (un smartphone dans une essoreuse à salade constitue un excellent montage expérimental pour étudier le mouvement circulaire uniforme).

Par exemple, à partir des équations de la Mécanique Classique (un des cours les plus visités sur le site MIT OpenCourseWare), la combinaison des données issues de l’accéléromètre et du gyroscope du smartphone permet de reconstruire sans paramètre ajustable la trajectoire du Tram B de Grenoble et de la comparer à celle qui apparaît sur Google Maps. Longue discussion avec les étudiants de première année de Licence à propos de l’intégration numérique et des sources d’erreur pour expliquer les différences observées même si le résultat est plus que convaincant. Gros succès aussi auprès des utilisateurs du tramway devant une troupe d’étudiants installant des smartphones sur les sièges et attendant très attentifs les signes du départ.

Source : Joel Chevrier,dans echosciences du 6 novembre 2016  

The world’s shortest intelligence test can tell if you have a higher IQ than a Harvard student

Yet even still, as we progress ever further as a society, uncovering deep mysteries of our universe while managing to stay abreast of each new iPhone release, a true definition of intelligence is hard to come by.

Of course, the retention and application of knowledge is a key part of what we understand intelligence to be; but in what parameters? And to what end?

Archaic views of intelligence would have you believe that scholarly academia was the only true measure of intellect, but this holds little relevance in our modern culture. If part of what makes us intelligent is rooted in its application, then by extension we might assume that true intelligence should be useful somehow – but this clearly isn’t always the case.

Enter stage left the IQ test, which aims to place some sort of measure of intelligence upon us. The IQ test has enjoyed something of a revival in recent days after the President of the United States, Donald Trump, challenged his own Secretary of State, Rex Tillerson, to take one and compare results – presuming, of course, that those results would favour himself.

Competitiveness is built into our very nature, and everyone likes to appear intelligent, even if they secretly worry that they might not be as clever as the image they portray. Perhaps this is why the IQ test has become such a valued barometer of virtue in our society, a measuring stick that the intelligent can wield against opponents in times of intellectual debate.

Despite the IQ test’s current resurgence, thanks largely to the leader of the free world, researchers are constantly attempting to ascertain new ways to define and measure intelligence.

Indeed, a few years ago, a psychologist named Shane Frederick devised a short, concise, three question test as a means of testing intellect. It’s an interesting idea that purports to measure how well we are able to override our impulses to correctly work out what the answer is.

The test does not directly measure one’s IQ, though students from participating universities certainly found it a challenge; 20% of students from Harvard, widely considered the most prestigious university in the world, got zero correct answers when they attempted the questions.

Here they are, so you can try them at home:

1. A bat and a ball cost $1.10 in total. The bat costs $1 more than the ball. How much does the ball cost?

2. If it takes 5 machines 5 minutes to make 5 widgets, how long would it take 100 machines to make 100 widgets?

3. In a lake, there is a patch of lily pads. Every day, the patch doubles in size. If it takes 48 days for the patch to cover the entire lake, how long would it take for the patch to cover half of the lake?

And now here are the answers:

1. A lot of people would instinctively answer 10 cents, but this would mean that the bat was only 90 cents more expensive than the ball. The correct answer is 5 cents.

2. IFL Science explains; “Your gut instinct might be to say 100 minutes. Fortunately, it wouldn’t take quite so long. From the question, we can determine it takes exactly 5 minutes for 1 widget machine to make 1 widget. Therefore, it would take 5 minutes to make 100 widgets from 100 widget machines.”

3. Again, IFL Science breaks it down; ” You might have guessed 24 days. It seems intuitive to half the number of days because you’re halving the size of the lilypad patch. But if the area of the lake covered in lilypads doubles every day, it would only take one day for it to go from being half covered to fully covered. Take one day away from 48 days and you’re left with 47.”

How did you get on? Are you a genius? Did you do better than 20% of Harvard students?

Good, now back to work!

By DozeBuzz

La mosca nel bicchiere (quanto pesa quando vola ?)

Una mosca (peso 5gr) è dentro un bicchiere (100gr) capovolto su una bilancia. Quanto segna la bilancia

1) quando la mosca è appoggiata ferma sulla bilancia ?
2) mentre la mosca si alza in volo dentro il bicchiere ?

3) mentre la mosca vola ad altezza fissa, diciamo a metà del bicchiere ?

4) mentre la mosca, spinge il bicchiere nel tentativo di sollevarlo ?
5) mentre la mosca, stremata, precipita inerte verso il piatto della bilancia ?

------------------------------------------------

Domanda trovata su Yahoo ! Answers [1]

Risposta proposta da  Franco Bagnoli [5]

Una mosca (peso 5gr) è dentro un bicchiere (100gr) capovolto su una bilancia. Quanto segna la bilancia nei seguenti casi?
  1. Mentre la mosca è appoggiata ferma sulla bilancia; 
  2. Quando la mosca si alza in volo dentro il bicchiere; 
  3. mentre la mosca vola ad altezza fissa, diciamo a metà del bicchiere; 
  4. Quando la mosca spinge il bicchiere nel tentativo di sollevarlo; 
  5. Mentre la mosca, stremata, precipita inerte verso il piatto della bilancia. 
Ho estratto alcune risposte, che penso siano tipiche:
  • La bilancia segna 105 g quando la mosca è ferma a contatto con il bicchiere (caso 1), 100 g quando non è a contatto (casi 2,3,5), < 100 g quando la mosca è a contatto con il bicchiere, ma spinge verso l'alto.
  • La bilancia segna 105g quando la mosca è a contatto, incluso il caso in cui comincia a spingere verso l'alto (caso 1 e inizio del caso 2), 100 g quando non è a contatto ma più di 105 g quando, cadendo, arriva vicino alla bilancia. Questo perché quando è lontana le molecole di aria su cui lei si appoggia si disperdono, ma invece quando è vicina al fondo le molecole d'aria arrivano a battere direttamente sul fondo.
  • Sempre 100 g quando non è a contatto con qualcosa.
  • Sempre 105 g, perché il sistema è limitato.
Il problema qui è che la mosca non sembra interagire con la bilancia, essenzialmente perché c'è nel mezzo l'aria che è considerata "troppo molliccia" per comunicare una forza. Se al posto dell'aria ci fosse un filo, e al posto della mosca un ragno che si arrampica sul filo, sono sicuro che le risposte sarebbero diverse.
Cerchiamo di impostare il problema seguendo la fisica. Il sistema si può schematizzare con una scatola (che comprende il bicchiere e il piatto della bilancia), una molla (la bilancia), la mosca e l'aria. L'ago della bilancia mostra la compressione della molla. Le forze esterne al sistema sono la forza della molla (che agisce sulla scatola) e la forza di gravità (che agisce sulla scatola, sull'aria e sulla mosca). Però l'aria si può anche considerare un mediatore di forza senza peso, vista la sua bassa densità.
Tra mosca e scatola ci sono senz'altro delle forze, dato che altrimenti la mosca cadrebbe (sentirebbe solo la forza di gravità). Possiamo considerare alcune variazioni del problema:
  1. Al posto dell'aria mettiamo un filo e al posto della mosca un ragno. In questo caso l'aria non serve e possiamo pensare che ci sia il vuoto.
  2. Al posto della mosca mettiamo una pallina che è mantenuta in posizione da un getto d'aria proveniente da un ventilatore posto sul fondo della scatola.
  3. Al posto della mosca mettiamo un disco volante che si sostiene spedendo un raggio di fotoni verso il basso, fotoni che collidono con il fondo della scatola. Anche in questo caso non c'è bisogno dell'aria e quindi supponiamo che ci sia il vuoto nella scatola.
  4. Il disco volante si mantiene sparando delle palline di pongo verso il fondo della scatola (le palline in questo caso non rimbalzano e restano lì dove collidono).
  5. Possiamo considerare esplicitamente tutte le molecole di aria e le interazioni tra di loro, tra loro e la mosca e tra loro e la scatola.
In tutti questi casi abbiamo delle forze tra la mosca (o il ragno o il disco volante) e la scatola, o tra la mosca e le molecole d'aria (o le palline o i fotoni) e tra queste e la scatola.
Ora, possiamo generalizzare il problema (come viene fatto nei libri di testo) indicando con m le varie masse, ri le loro posizioni e  fi le forze agenti su queste. Le forze fi sono composte dalla somma delle forze esterne fi(e) (la forza peso e le forza tra scatola e molla della bilancia) e forze interne  fi(i)Σj fij esercitate sul corpo i da tutti gli altri corpi j (sono sempre forze interne al sistema, per esempio tra mosca e molecole d'aria o tra queste e la scatola). Ovviamente abbiamo  fi = mi ai, dove  asono le accelerazioni, ovvero le derivare seconde delle posizioni.
Adesso compaiono i due attori principali: il centro di massa e il principio di azione e reazione.
Il centro di massa è definito come un punto di massa M=Σi mi e di posizione R tale che MR=Σi mi ri.
Il principio di azione e reazione dice che se un corpo i agisce su un corpo j con una forza fij, allora il corpo agisce su i con una forza uguale e contraria, ovvero fji=-fij. 
 

Quindi, se mettiamo tutto insieme, abbiamo che l'accelerazione (A) del centro di massa è tale che

 MΣi mi aΣi fΣi fi(e)+Σi fi(i) Σi fi(e)+Σij fij.
 
Ma l'ultimo termine è nullo a causa del principio di azione e reazione, e quindi abbiamo che il moto del centro di massa è dato solo dalla somma delle forze esterne, che è il motivo per cui il centro di massa di un sistema è un concetto molto utile. Per esempio, per determinare il moto del centro di massa di un oggetto rigido, possiamo semplicemente ignorare le (grandissime) forze interne che tengono il corpo unito.
Per lo stesso motivo possiamo ignorare le forze tra mosca, molecole di aria e scatola, e considerare semplicemente il moto del centro di massa del sistema scatola-aria-mosca.
Ora, la scatola e l'aria stanno globalmente ferme. In realtà le molecole di aria si muovono, ma il loro centro di massa no. E della mosca conta solo la sua accelerazione.
Quindi:
  • Quando la mosca sta ferma (caso 1, 3 e 4) la bilancia segna 105 g. Questo anche quando la mosca si muove di moto rettilineo uniforme, quindi anche nei casi 2 e 5 dopo l'accelerazione iniziale.
  • Quando la mosca accelera verso l'alto (inizio del caso 2) la bilancia segna più di 105 g, perché c'è una forza totale verso l'alto che non può che essere comunicata dalla molla della bilancia.
  • Quando la mosca accelera verso il basso la bilancia segna meno di 105 g. Se la mosca cadesse con accelerazione pari a (per esempio quando è il disco volante a cadere) allora non "peserebbe" e la bilancia segnerebbe 100 g.
In realtà tra quando la mosca inizia ad accelerare verso l'alto e il momento in cui la bilancia segna la variazione di forza passa il tempo necessario a far sì che l'aria "comunichi" questa variazione alla base, ovvero il tempo necessario perché l'onda di perturbazione dell'aria, viaggiando alla velocità del suono, raggiunga il fondo della scatola. In questo caso la variazione è pressoché istantanea, ma il problema ricorda molto quello della molla slinky [2].
Il problema è simile a quello della clessidra sulla bilancia: Una clessidra a sabbia (più propriamente clepsamia) è posta su una bilancia, ed ha un meccanismo a distanza (tramite wifi) di sblocco del flusso di sabbia. A un certo istante la sabbia inizia a scendere, continua finché la clepsamia è quasi vuota e poi cessa. Cosa segna la bilancia nei vari istanti? [3]
Un problema collegato ma molto interessante è il seguente: cosa succede se invece il bicchiere è dritto e la mosca vola ad altezza costante dentro il bicchiere o sopra il bicchiere?
Ovviamente se la mosca è vicina al fondo, non dovrebbe cambiare nulla e la bilancia segnerà 105 g, ma se la mosca è molto più in alto del bicchiere, ci si aspetta che la bilancia segni 100 g. In questo caso il fatto è che il getto di aria spinto verso il basso dalla mosca a una certa altezza "esce" dal bicchiere e preme sull'ambiente circostante, come si può visualizzare pensando a un disco volante che si regge su un fascio fotonico.

Nota:

Un problema simile è quello del furgone pieno di piccioni. Ogni volta che sta per passare su un ponte, il guidatore scende e batte sul lato del cassone. Quando gli viene domandato perché, lui spiega che il furgone è al limite della tolleranza dei ponti, ma essendo pieno di piccioni, lui li spaventa così che volino e non contribuiscano al peso del veicolo.
Vedere come i MithBusters affrontano la situazione [4].
Citazioni
[2] Quando si fa cadere una molla slinky http://fisicax.complexworld.net/meccanica/la-molla-slinky si vede che l'estremo inferiore della molla non si sposta finché non viene raggiunto dall'estremo superiore (che cade con accelerazione maggiore di g). Il fatto è che le perturbazioni nei materiali viaggiano con la velocità del suono, e questa nella molla slinky è piuttosto bassa. Quindi il moto di caduta dell'estremo superiore diventa rapidamente supersonico e nessuna perturbazione può raggiungere l'estremo inferiore prima dell'arrivo di quello superiore.
[3] Data una clessidra sulla bilancia, abbiamo che all'inizio della caduta della sabbia c'è una accelerazione del centro di massa verso il basso, quindi la bilancia segna meno del peso della clessidra. Durante la caduta a velocità costante della sabbia la bilancia segna il peso della clessidra. Alla fine abbiamo una brusca frenatura del centro di massa (accelerazione verso l'alto) e quindi la bilancia segnerà più del peso della clessidra. Si pensi a raggruppare tutta la sabbia in un unico blocco...
[5] http://fisicax.complexworld.net/

Weighing a Gas - Peser un Gaz 

Can you weigh the gas in a closed container? The answer from Newton's laws is yes! If you weigh an "empty" compressed gas cylinder and fill it with high pressure gas, it will then weigh more on an ordinary scale since you are weighing the gas in the cylinder. This will be demonstrated with a single molecule moving vertically, but the same result is obtained with any number of molecules moving in random directions so long as the collisions between them are elastic collisions.

The difference between the average force on the bottom and top of the container is just the weight, mg, of the molecule. This can be generalized to any number of molecules traveling in random directions.

If a molecule traveling in a random direction has a y-component of velocity, it will eventually collide with the top or bottom of the container. In an elastic collision with the fixed wall, the y-component of velocity will be reversed, giving a change in momentum of twice the mass times the original velocity. The force on the wall during that brief collision is quite high, but the much smaller average force of the collision is obtained by dividing the change in momentum by the entire round-trip time to the opposite end of the container and back. Taking an average force like this allows you to determine average forces and average pressures on the walls of a container of gas.

The fact that the molecules may undergo many collisions on the way from top to bottom does not change this outcome. If a molecule has a certain momentum toward the bottom as it starts from the top, that net momentum toward the bottom will not be changed, even if it undergoes billions of collisions. It will transfer momentum to many other molecules and the particles which eventually reach the bottom with that momentum will exert the same average force as if the original molecule got there.

What do you think? If a closed truck is carrying a lot of birds, will the truck weigh less if the birds are flying around in the truck?

Is the atmospheric pressure times the area of the Earth's surface equal to the weight of the atmosphere?

Source : Weighing a Gas

La leggerezza dell'aria (e del vapor d'acqua)

La leggerezza dell'aria (e del vapor d'acqua)

L'aria, come tutto l'universo, è fatta da atomi e dunque è materialissima. Ha una massa, sulla bilancia si può pesare, urta e si fa sentire, ha proprietà insomma come il resto del mondo fisico.

Che l’aria sia a noi indispensabile non fa notizia. Si rischia di soffocare, senza aria. Nella mia stanza ora c’è aria, per fortuna, e anche nella vostra. Chiedete però a un bambino cosa c’è in quel bicchiere “vuoto” sul tavolo. La risposta, secca e indiscutibile, sarà "un bel niente”: non dice che c’è aria, no. Siccome il bicchiere “serve” per contenere acqua (o vino), il fatto che questi liquidi non siano presenti relega l’invece presentissima aria a un nulla di fatto. 

La sostanza fisica dell’aria o, più in generale, di una sostanza allo stato gassoso, è questione risolta da un sacco di tempo nel linguaggio e nella rappresentazione delle scienze fisiche ma, da un punto di vista invece della percezione intuitiva e spontanea, lascia molti dubbi da risolvere.

Il punto è che, quando la percepiamo, l’aria (o il gas) si fa sentire come un “continuo”, mobile, imprendibile, tenue e, per dirla come di solito si usa dire, rarefatto. Eppure le cose vanno diversamente. L’aria, come tutto l’universo, è fatta da atomi (uniti a formare molecole) e dunque è materialissima. Ha una massa, sulla bilancia si può pesare (con qualche cautela), urta e si fa sentire, ha proprietà insomma come il resto del mondo fisico.

Il fatto che sia allo stato gassoso la rende differente in termini di comportamento “macroscopico” (vecchia storia quella della differenza fra solido, liquido e gas, vero?) eppure siamo in grado di misurarne e di comprenderne i dettagli microscopici (ossia la sua costituzione in termini atomici o molecolari).

L’aria è un miscuglio di gas di varia natura (azoto, ossigeno molecolari, poi anidride carbonica, vapore d’acqua e una spruzzata di altri elementi) che condividono lo spazio da essi occupato, urtando le pareti del contenitore che eventualmente li racchiude. Questi urti esercitano una forza media che viene di solito detta “pressione” del gas. Alta pressione, grande forza sulle pareti.

image

La pressione dell’aria non è il suo peso, come di solito viene riportato da testi o siti di scienza pasticciati e pasticcioni. Se fosse il suo peso allora verrebbe esercitata, la pressione, unicamente dall’alto verso il basso, verticalmente, come fa ogni bravo peso.

Allora sì che saremmo nei guai, tutti schiacciati da una forza enorme (l’atmosfera, in effetti, è un’unità di misura della pressione che non si dovrebbe più utilizzare perché ora si deve esprimere tutto nel “Sistema Internazionale” di misura, che per la pressione utilizza il “pascal”, ovvero il newton(forza) su metro quadrato).

Quant’è, ora, nella mia stanza, la pressione? Circa 98000 newton su metro quadrato (pascal), ovvero 9,8 newton su centimetro quadrato o, se preferite, quello che potrebbe fare una massa di un chilogrammo su questo centimetro quadrato. Perché non ci fa male? Perché questa forza è presente ed equilibrata in tutte le possibili direzioni spaziali: è dovuta agli urti delle molecole di aria, che schizzano in tutte le direzioni, senza preferenze.

Dunque la pressione non è “in giù”, ma anche in qua, in là, in su e così via.

Le molecole schizzano a quali velocità? Molto grandi, secondo le nostre idee di rapidità. Svariate centinaia di metri al secondo: quanto precisamente valga la velocità è legato al nostro termometro. Quando misuriamo la temperatura di un gas (dell’aria della nostra stanza) stiamo assegnando in realtà un numero alla rapidità con la quale, in media, le molecole stanno per l’appunto schizzando nel loro moto casuale e frenetico.

Tanto maggiore è la velocità in media delle particelle (in media: ognuna di esse ha la sua velocità differente da quella delle altre, anche se poi nel loro complesso si muovono con una certa “prevedibilità” statistica) tanto più alto è il valore della temperatura. Se si preferisce, è possibile dunque pensare alla temperatura di un gas come a una lettura di un suo comportamento atomico.

La pressione misura le “spinte” delle particelle di gas, la temperatura la loro velocità. C’è un collegamento fra questi due aspetti microscopici? Certo che sì: studi di ormai duecento anni fa, hanno stabilito in modo chiaro e puntuale che in un dato volume di gas, alla presenza di un certo quantitativo di materia, la pressione e la temperatura sono legate da una semplice relazione di proporzionalità diretta: se si raddoppia la temperatura, si assiste a un aumento di pari proporzione (un raddoppio, dunque) anche della pressione. Se, attenzione, il volume occupato dal gas non cambia. Potrebbe altresì essere che si cerchi di stabilire una relazione fra il volume occupato dal gas e la sua temperatura, oppure la sua pressione. Di nuovo, la soluzione è sorprendentemente semplice (pur di considerare trasformazioni “ideali” di sostanze gassose, nelle quali fenomeni come la formazione di stati di aggregazione liquida o solida non avvengano) e prevede che, mantenendo costante la temperatura del gas, al raddoppio del suo volume, ne consegua un dimezzamento della sua pressione. Oppure, mantenendo costante la pressione della sostanza, se il volume dimezza la temperatura deve raddoppiare.

image

Vi sono poi casi più generali, nei quali sia la temperatura, che la pressione e il volume di un gas mutano in una trasformazione. Per esempio, succede che un volume di aria espanso rapidamente non permetta lo scambio di energia termica (calore) e questo conduce a una diminuzione sia della pressione che della temperatura del gas. Questo è un fenomeno particolarmente interessante da studiare quando si tiene conto che nella miscela di gas che costituiscono l’atmosfera terrestre c’è il vapore d’acqua. In corrispondenza del raffreddamento causato dall’espansione si può assistere alla condensazione (trasformazione da gas a liquido) dell’acqua. Questo meccanismo è fondamentale per comprendere la formazione delle nubi in corrispondenza, infatti, della salita in quota di masse di aria che si espandono (minore pressione) raffreddandosi.

Anche l’umidità relativa dell’aria è un “noto ignoto” dei nostri bollettini meteo. Quando leggiamo sul misuratore di umidità (tabelle di solito che riportano RH come sigla) il dato “60%” cosa intende indicare? (A proposito, il misuratore in questione si chiama igrometro o anche, in certi casi, psicrometro). Semplice, o quasi: vuol dire che nella nostra aria è presente una massa di vapore d’acqua (necessariamente gassoso, altrimenti sarebbe in formato liquido visibile, gocce insomma) pari al 60% (frazione dello 0,6) della quantità di vapore che, a questa stessa temperatura dell’aria che stiamo considerando, sarebbe al limite della condensazione. In altre parole: a una data temperatura il vapore d’acqua rimane gassoso fino a una certa pressione (la “tensione di vapore saturo”), poi diventa liquido. Se di vapore ce n’è di meno di quello necessario ad avere la pressione “satura”, allora non si forma liquido. La misura della frazione di vapore presente riferita a quello di saturazione è proprio l’umidità relativa.

Attenzione dunque: il numero 60%, per esempio, non ci dice quanto vapore in assoluto c’è. Per saperlo bisogna conoscere la temperatura dell’aria.

Potrebbe ben essere che un’umidità relativa al 60% implichi meno vapore d’acqua (umidità assoluta) di un’umidità relativa al 50%, se quest’ultima è riferita a una temperatura relativamente elevata.

Source : La leggerezza dell'aria (e del vapor d'acqua)

Equation de la chaleur : Simulation numérique

La simulation numérique de l'équation de la chaleur pose parfois quelques problèmes, et pas seulement de capacité de calcul. Nous allons voir en effet que tous les algorithmes ne sont pas équivalents, loin de là...

Nous vous proposons ci-dessous des illustrations des phénomènes décrits dans ce texte, ainsi que les programmes qui ont servi à sa réalisations. Ceux-ci sont commentés, afin que vous puissiez si vous le voulez les modifier sans trop de difficulté, et tester ainsi les méthodes mises en jeu avec vos propres paramètres.

Table des matières

  • Résumé, position du problème
  • Méthode explicite
  • Méthode implicite

Résumé, position du problème

Nous nous intéressons ici au traitement numérique de l'équation de la chaleur :

Nous considérons ce problème sur un domaine borné en espace (0 < x < 1), et pour des temps positifs (t > 0). Nous imposons également les conditions initales et de bord suivantes :


et

Rappelons que la solution exacte du problème est alors la fonction :

Connaissant cette solution exacte, il nous est possible d'apprécier la qualité des différentes méthodes numériques, de calcul approché de cette solution. Dans tous les cas, nn se donne donc un pas spatial h, c'est-à-dire que l'on cherche à calculer les valeurs de notre solution u aux points d'abscisse 0, h, 2h,..., 1. On doit aussi se restreindre à un ensemble discret d'instants auxquels on prétend calculer ces valeurs, on fixe donc un pas temporel ket l'on cherchera à calculer les valeurs de u aux instants k, 2k, 3k, ...
uin désignera la valeur calculée (approchée) de la solution à l'instant nk et au point d'abscisse i h.
Voici des animations illustrant les différences entre deux méthodes de résolution numérique.

 

Un premier essai : méthode explicite

Pour cette méthode, on approche la dérivée temporelle par le rapport (uin+1 - uin)/k ; et la dérivée seconde par rapport à la variable d'espace par le rapport (ui+1n + ui-1n -2 uin)/h2.
L'équation de la chaleur discrétisée est ici :C'est le modèle utilisé dans l'illustration ci-contre. Disponible également, le programme chaleurexpl, version matlab ou scilab.

Code source de l'applet.

N.B. Les plus patient observerons que la méthode semble marcher pour les deux plus petites valeurs de k. C'est normal : elles sont en dessous du seuil déterminé dans le texte !

 

Deuxième essai : méthode implicite

La seule différence par rapport à la méthode précédente est que cette fois, on approche la dérivée temporelle par le rapport (uin - uin-1)/k.
Après décalage d'indices, l'équation de la chaleur discrétisée est cette fois :Là aussi, ce modèle est illustré ci-contre. Disponible également, le programme chaleurimpl, version matlab ou scilab.

Code source de l'applet.

N.B. La courbe semble un peu moins régulière pour les petites valeurs de k, ce qui est troublant, puisque l'on s'attend à ce que la méthode soit plus précise lorsque le pas temporel est petit. En réalité, il n'en est rien : il y a un peu de "bruit" dû à des problèmes d'arrondis (nécessaires dans tout calcul numérique) quel que soit le pas temporel, mais lorsque celui-ci est plus grand, la courbe bouge plus à chaque étape de calcul et de ce fait on perçoit moins ce phénomène.

Pour les explications de ces phénomènes, nous renvoyons une fois de plus au texte...
Source : Thomas Chomette, version ps ou pdf.

Albert Einstein Looks for a Job

To Adolf Hurwitz

Milan, 30 September [1900]

Esteemed Herr Professor!

My friend Ehrat has written to me that Dr. Matter, who has been your assistant until now, has obtained a position as a Gymnasium teacher in Frauenfeld. I am therefore taking the liberty to inquire respectfully whether I have a chance of becoming your assistant.

I would not have taken the liberty of troubling you with such an inquiry during vacations were it not for the fact that the granting of citizenship in Zurich, for which I have applied, has been made conditional upon my proving that I have a permanent job.

Thanking you in advance for your kind response, I remain respectfully yours

Albert Einstein
Via Bigli 21
Milan
Milan, 26 September [1900]

Esteemed Herr Professor!

Thank you for your kind letter. It made me very happy to learn that I have a chance of getting the position. Since lack of time prevented my taking part in the mathematics seminar, and no opportunity was offered for seminar exercises in theoretical and experimental physics, there is nothing in my favor except the fact that I attended most of the lectures offered. I think I should therefore also mention that I occupied myself mainly with analytical mechanics and theoretical physics during my university years. I remain respectfully yours

Albert Einstein
Zurich, 9 March 1900 [1901]

Highly esteemed Herr Professor!

Last summer I completed my studies at the mathematical-physical department of the Zurich Polytechnikum, and since I would like to expand and in some ways complete the knowledge which I acquired by attending lectures, studying the classics, and working in the physical laboratory, but am totally lacking the necessary means, I am taking the liberty of asking you whether you might need an assitant A few days ago there appeared in Wiedemann’s Annalen a short paper of mine titled “Theoretische Folgerungen am den Kapillaritätserscheinungen” [“Theoretical conclusions drawn from the phenomena of capillarity"]. I would appreciate if you could drop me a few lines and let me know about my prospects of getting such a position now or possibly next autumn.

Respectfully yours

Albert Einstein
Dolderstr. 17
Zurich-Hottingen

-To Wilhelm Ostwald
Zurich, 19 March 1901

Esteemed Herr Professor!

Became your work on general chemistry inspired me to write the enclosed article, I am taking the liberty of sending you a copy of it. On this occasion permit me also to inquire whether you might have me for a mathematical physicist familiar with absolute measurements. If I permit myself to make such an inquiry, it is only became I am without means, and only a position of this kind would offer me the possibility of additional education.

Respectfully yours

Albert Einstein
Via Bigli 21
Milan
Italy

To Wilhelm Ostwald
Milan, 3 April 1901

Esteemed Herr Professor!

A few weeks ago I took the liberty of sending you from Zurich a short paper which I published in Wiedemann’s Annalen Became your judgment of it matters very much to me, and I am not sure whether I included my address in the letter, I am taking the liberty of sending you my address hereby.

Respectfully, yours truly

Albert Einstein
cand[idatus] phys[icae]
Milan
Via Bigli 21

To Heike Kamerlingh Onnes

Milan, 12 April 1901

Esteemed Herr Professor!

I have learned through a friend from college that you have a vacancy for an assistant, I am taking the liberty of applying for that position. I studied at the department for mathematics and physics of the Zurich Polytechnikum for 4 years, specializing in physics. I obtained there my diploma last summer. Of course, I will make my grade transcripts available to you with pleasure.

I have the honor to submit to you by the same mail a reprint of my article that has appeared recently in Annalen der Physik.

Respectfully,

Albert Einstein

Hermann Einstein to Wilhelm Ostwald

Esteemed Herr Professor!

Please forgive a father who is so bold as to turn to you, esteemed Herr Professor, in the interest of his son.

I shall start by telling you that my son Albert is 22 years old, that he studied at the Zurich Polytechnikum for 4 years, and that he passed his diploma examinations in mathematics and physics with flying colors last summer. Since then, he has been trying unsuccessfully to obtain a position as Assistant, which would enable him to continue his education in theoretical & experimental physics. All those in position to give a judgment in the matter, praise his talents; in any case, I can assure you that he is extraordinarily studiom and diligent and clings with great love to his science.

My son therefore feels profoundly unhappy with his present lack of position, and his idea that he has gone off the tracks with his career & is now out of touch gets more and more entrenched each day. In addition, he is oppressed by the thought that he is a burden on m, people of modest means.

Since it is you, highly honored Herr Professor, whom my son seems to admire and esteem more than any other scholar currently active in physics, it is you to whom I have taken the liberty of turning with the humble request to read his paper published in the Annalen fur Physik and to write him, if possible, a few words of encouragement, so that he might recover his joy in living and working.

If, in addition, you could secure him an Assistant’s position for now or the next autumn, my gratitude would know no bounds.

I beg you once again to forgive me for my impudence in writing to you, and I am also taking the liberty of mentioning that my son does not know anything about my unusual step.

I remain, highly esteemed Herr
Professor,
your devoted
Hermann Einstein

To the Director’s Office, Technikum Burgdorf

Winterthur, 3 July [1901]

To the Director’s Office!

I have learned that your institution has a vacancy for the chair of Strength of Materials and am taking the liberty of applying for that post.

I have been living in Switzerland for almost 6 years and have obtained Swiss (Zurich) citizenship during that time. In the Fall of 1896 I graduated from the Kantonsschule in Aarau and after that I enrolled in the School for Teachers of Mathematics at the Federal Polytechnikum. There, besides the usual mathematics and physics courses, I also took courses in technical subjecta, such as Strength of Materials with Prof. Hertzog, and Electrical Engineering with Prof. Weber. In the summer of the past year I obtained there my specialized teacher’s diploma.

Since then I have been working on investigations in the physics laboratory and on studies in theoretical physics. I also’ published a paper on capillarity in Wiedemann’s Annalen.

Since 15 May I have been teaching mathematics at the Technikum here in Winterthur as a substitute for Dr. Rebstein, who will be absent until 15 July because of military service.

Needless to say, my records are at your disposal. For further information please contact Prof. Lüdin, Prof. Weber, Prof. Rebstein at the Winterthur Technikum, Prof. Hertzog in Zurich, and the professors of the cantonal school in Aarau. With one of the latter, Prof. Winteler, formerly of Burgdorf, I am on very friendly terms.

Respectfully

Albert Einstein
Äussere Schaffhauserstrasse 38
Winterthur, Monday [8 July 1901]

Dear Herr Professor!

I was very happy to learn from my parenta’ last letter that you thought of me when you heard of a vacant teaching position in Burgdorf and that you are even ready to put in a recommending word for me there. I thank you with all my heart for your friendly offices.

Immediately after the receipt of this information (last Wednesday) I wrote to the director of the Burgdorf Technikum and applied for the position. The next day my colleagues told me that this teaching position involves not only mechanics and strength of materials, but also includes instruction in machine design, for which practical experience is essential. However, this does not say that the teaching of all these subjects by one teacher will also persist in the future. I have not yet received a response. I indicated that they may ask my former teachers at the Asrau cantonal school about me, and, further, that you and I are personal friends. I wrote this mainly because I thought that the gentlemen there are acquainted with you and will turn to you for information. I just don’t know whether it would have been pleasant for you to give an objective judgment about me—I would find an analogous situation somewhat awkward, one has to stick rigorously to the truth, and at the same time one does not like to say anything unfavorable. But in this way you can easily refrain from giving an opinion if this seems more appropriate to you.

I have been quite exceptionally pleased with my activities here. It had never occurred to me that I would enjoy teaching as much as it actually proved to be the case. After having taught 5 or 6 classes in the morning, I am still quite fresh and work in the afternoon either in the library on furthering my education or at home on interesting problems. I cannot tell you how happy I would feel in such a job. I have completely given up my ambition to get a position at a university, since I see that even as it is, I have enough strength and desire left for scientific endeavor.

There is no exaggeration in what you said about the German professors. I have got to know another sad specimen of this kind— one of the foremost physicists of Germany. To two pertinent objections which I raised against one of his theories and which demonstrate a direct defect in his conclusions, he responds by pointing out that another (infallible) colleague of his shares his opinion. I’ll soon make it hot for the man with a skillful publication. Authority gone to one’s head is the greatest enemy of truth.

But I do not want to bore you any longer with my talk.

Thanking you sincerely, I remain your

Albert Einstein
Schaffhauserstr. 38, Winterthur

To the Department of Education, Canton of Bern
Winterthur, 13 July 1901

To the Department of Education,

Intending to register for the vacant chair of mechanics and strength of materials at the Burgdorf Technikum, I mistakenly applied to the director of the Burgdorf Technikum. Please let me know whether my application will be taken into account or whether I have still time to send a new one to the Department of Education.

Respectfully

Albert Einstein
Scbaffhauserstr. 38
Winterthur

From the Department Of Internal Affairs, Canton of Bern

Reply—Your application for the vacant position of Teacher at the Technicum Burgdorf has been received by us and will be submitted together with all the other ones to the supervisory committee of the institute for evaluation.

1 one-franc bill returned.

Ritschard
From the Department of
Internal Affairs,
Canton of Bern

Esteemed Sir,

While thanking you very kindly for offering your services in filling the vacant position of Senior Teacher at the Mechanical-Technical Department of the Cantonal Technikum in Burgdorf, we must inform you that you have not been elected. Your documents are returned in the enclosure.

Respectfully,
Head of the Department of Internal
Affairs

Enclosures

Winterthur, Friday [6? September 1901] Dear Marcel With great joy have I just read in the newspaper that you have become professor at the cantonal school in Frauenfeld. I congratulate you cordially on this success, which offers you nice work and a secure future. I too applied for this position, but, in fact. I did it only so that I wouldn’t have to tell myself that I was too faint-hearted to apply; for I was strongly convinced that I have no prospects of getting this or another similar post. However, I too am now in the happy position of having gotten rid of the perpetual worry about my livelihood for at least one year. That is to say that as of 15 September I will be employed as a tutor by a teacher of mathematics, a certain Dr. J. Ntiesch, in Schaffhausen, where I’ll have to prepare a young Englishman for the Matura [high-school graduation] examinations. You can imagine how happy I am, even though such a position is not ideal for an independent nature. Still, I believe that it will leave me some time for my favorite studies so that at least I shall not become rusty.

Lately I have been engrossed in Boltzmann’s works on the kinetic theory of gases and these last few days I wrote a short paper myself that provides the keystone in the chain of proofs that he had started. However, it is too specialized to be of interest to you. In any case, I’ll probably publish it in the Annalen. On what stuff do you spend your free time these days? Have you too already looked at Schopenhauer’s Aphorisms on the Wisdom of Life? This is a part of Parerga & Paralipomena, and I liked it very much.

A considerably simpler method of investigating the relative motion of matter with respect to luminiferous ether that is based on ordinary interference experiments has just sprung to my mind. If only, for once, relentless Fate gave me the necessary time and peace! When we see each other I’ll report to you about it.

Give my best regards to your family and accept once more my heart-felt congratulations.

Your

Albert Einstein

To the Swiss Patent Office

Schaffhausen, 18 December 1901 To the “Federal Office for Intellectual Property” [Patent Office]:

I, the undersigned, take the liberty of applying for the position of Engineer Class II at the Federal Office for Intellectual Property, which was advertised in the Bundesblatt [Federal Gazette] of 11 December 1901. I obtained my professional education in physics and electrical engineering at the School for Specialist Teachers of Mathematics and Physics at the Federal Polytechnikum in Zurich, which institution I attended from the Fall of 1896 to the Summer of 1900. There I obtained the Federal Diploma for Specialist Teachers after completion of my studies, based on an experimental project in physics and the successfully passed examination.

From the Fall of 1900 to the Spring of 1901 I lived in Zurich as a private teacher. At the same time I perfected my education in physics and wrote my first scientific paper. From 15 May to 15 July I was a substitute teacher of mathematics at the Technikum in Winterthur. Since 15 September 1901 I have been a tutor in Schaffhausen. During the first two montha of my working here I wrote my doctoral dissertation on a topic in the kinetic theory of gases, which I submitted to Section II of the Faculty of Philosophy at Zurich University a month ago.

The documents that corroborate my statements are now at Zurich University, but I hope that I will be able to send them to you in a few days.

I am the son of German parents, but I have been living in Switzerland without interruption since age 16. I am a citizen of the City of Zurich.

Respectfully yours,
Albert Einstein
Bahnhofstr. Schauffhausen
[5 February 1902]

Private lessons in MATHEMATICS AND PHYSICS for students and pupils given most thoroughly by ALBERT EINSTEIN, holder of the fed polyt. teacher’s diploma GERECHTIGKEITSGASSE 32, 1ST FLOOR Trial lessons free.From the Swiss Department of Justice

Bern, 19 June 1902

Department of Justice and Police
of the Swiss Confederation
Fed. Office for Intellectual Property
Mr. Albert Einstein, Bern

Highly esteemed Sir!

At its session of 16 June 1902, the Federal Council elected you provisionally as a Technical Expert Class 3 of the Fed. Office for Intellectual Property with an annual salary of 3,500 ft.

Respectfully.

Federal Department of Justice & Police:
Brenner

From the Swiss Patent Office
[Bern, 19 June 1902]

Mr. J. Heinrich Schenk, Engineer

Zurich I, Mühlegasse 31, 3d [floor]
Mr. Albert Einstein

Bern, Thunstr. 43a

Highly esteemed Sir!

Herewith we transmit you a letter of appointment of the Fed. Department of Justice & Police, and expect that you will assume your duties on this-coming 1 July at the latest. However, you can also start earlier.

Respectfully,

O[fjice] f[or] I[ntellectual] P[roperty]

Source : http://www.the-scientist.com/?articles.view/articleNo/8871/title/Albert-Einstein-Looks-for--a-Job/

L'histoire du four Micro-Ondes

1946, États-Unis. L’ingénieur Percy Spencer, soudain pris d’une petite faim, glisse la main dans la poche de sa blouse et attrape une barre de chocolat… Malheureusement pour lui, cette dernière est complètement fondue...

Peut-être n’y aurait-il pas prêté plus d’attention, si ce n’était pas déjà la troisième fois ! Il s’interroge : la chaleur de son corps serait-elle responsable ou autre chose fait-il fondre le chocolat ?

L’ingénieur travaille alors sur les radars et tout particulièrement sur l’un de ses composants, un tube à vide produisant des ondes, appelé "magnétron".


C’est d’ailleurs cet appareil qu’il soupçonne d’avoir fait fondre son chocolat. Il se demande si les micro-ondes produites par celui-ci pourraient cuire des aliments…

Pour en avoir le cœur net, il réalise une expérience pour le moins originale : il bricole le magnétron et place ensuite à proximité... des grains de maïs. Et là, surprise, les grains chauffent tellement qu’ils donnent du pop-corn !


S’en suit un ballet d’essai culinaire : œuf, sandwich, tout y passe. Spencer prend même l’habitude de réchauffer son déjeuner dans son micro-ondes.

Convaincu du potentiel de son invention, il dépose un brevet et parvient à persuader sa société de la commercialiser sous le nom de "Radar Range". Le micro-ondes ressemble alors à un gros frigo et coûte très cher.


Il faudra attendre plusieurs années pour que les scientifiques comprennent son fonctionnement. Ce sont en fait les micro-ondes qui, en agitant les molécules d'eau contenues dans les aliments, parviennent à les chauffer.
Aujourd’hui presque tous les foyers occidentaux possèdent un radar antiaérien dans leur cuisine !

Pour en savoir plus :

Sur Percy Spencer

Sur la découverte du micro-onde

Sur comment fonctionne un micro-ondes

Source de l'article : Clément Jailin Sciencetips

Facial appearance affects science communication

https://docs.google.com/document/d/1m--SqWFKJduXbzX7oc6yCUvDWO3PQQ6rhAh4ObdnwH0/pub

Facial appearance affects science communication

  1. Ana I. Gheorghiua,  2. Mitchell J. Callana, and  3. William J. Skylarkb,1

Author Affiliations

Significance

The dissemination of scientific findings to the wider public is increasingly important to public opinion and policy. We show that this process is influenced by the facial appearance of the scientist. We identify the traits that engender interest in a scientist’s work and the perception that they do high-quality work, and show that these face-based impressions influence both the selection and evaluation of science news. These findings inform theories of person perception and illuminate a potential source of bias in the public’s understanding of science.

Next Section

Abstract

First impressions based on facial appearance predict many important social outcomes. We investigated whether such impressions also influence the communication of scientific findings to lay audiences, a process that shapes public beliefs, opinion, and policy. First, we investigated the traits that engender interest in a scientist’s work, and those that create the impression of a “good scientist” who does high-quality research. Apparent competence and morality were positively related to both interest and quality judgments, whereas attractiveness boosted interest but decreased perceived quality. Next, we had members of the public choose real science news stories to read or watch and found that people were more likely to choose items that were paired with “interesting-looking” scientists, especially when selecting video-based communications. Finally, we had people read real science news items and found that the research was judged to be of higher quality when paired with researchers who look like “good scientists.” Our findings offer insights into the social psychology of science, and indicate a source of bias in the dissemination of scientific findings to broader society.

INTRODUCTION

Public discourse and policy are increasingly shaped by scientific research, and scientists are increasingly encouraged to communicate directly with the public (1, 2). Newspaper and television interviews, science festivals, dedicated websites, and online videos are just some of the channels by which researchers describe their work to nonexpert audiences (3). These communications shape people’s beliefs about the physical and social world, and correspondingly influence personal decision-making and government action (4, 5).

However, contrary to traditional conceptions of the scientific process as a dispassionate sifting of evidence (6), extraneous variables can influence whether a given piece of research is widely discussed and believed or ignored and discredited. People’s selection and evaluation of science communications are swayed by the use of imagery (7), clarity of expression (8), and inclusion of jargon (9). These stylistic features interact with the recipient’s preconceptions and social context to influence the spread and impact of a scientist’s work (10, 11).

We investigated whether science communication is also affected by the scientist’s facial appearance. People form an impression of an individual’s personality, character, and abilities within a few hundred milliseconds of viewing their face (12). These impressions predict important social outcomes in domains including law (13), finance (14), and politics (15). Different traits are important in different domains (16), but there is good agreement between individuals and cultures about the extent to which a face signals core social traits such as trustworthiness, competence, and sociability (17, 18). However, these inferences generally have poor validity, meaning that facial appearance is an important source of bias even when more diagnostic information about a person is available (19, 20).

Given the potency of face-based impressions and the susceptibility of science communication to extraneous presentational factors, we hypothesized that a scientist’s face will influence two key components of the science communication process: selection (which research the public chooses to find out about) and evaluation (the opinions they form about that research). There is a long tradition of research into scientist stereotypes (2123), including evidence that people have a sense of what a scientist “looks like” (24), but the facial features that shape the public’s selection and evaluation of science communications have not previously been examined.

We focused on three core sociocognitive traits: competence (encompassing, for example, intelligence and skill), sociability (e.g., likeability and friendliness), and morality (e.g., trustworthiness and honesty). These factors capture the basic dimensions on which people evaluate groups and individuals (2528), and all three are germane to science communication. Facial competence predicts positive outcomes in many domains (29), and, although some depictions of scientists emphasize elements of incompetence (e.g., absent-mindedness; ref. 21), intelligence and skill are central to both competence (27) and scientist stereotypes (22), suggesting a positive effect of apparent competence on successful science communication. Trust is important both to effective communication and to the scientific process (6, 30, 31), and trustworthy-looking scientists may enjoy greater research success (32). However, face-based inferences about morality have surprisingly weak effects in other domains where trust is important, such as politics (15, 33, 34), so their impact on science communication is an open question. Finally, although science is a social enterprise (6, 31), scientists are often perceived as solitary and socially awkward (22, 23). Thus, although apparent sociability may be desirable in a communicator/educator (35), it might also weaken the perception that a researcher is a “good scientist” and hence diminish the public’s regard for their work (cf. ref. 33). A similar logic applies to facial attractiveness, whose influence we also examined: Attractiveness is valued in communicators (35) but does not predict research success (32), and may even be detrimental to having one’s work taken seriously by the public (cf. ref. 34).

Facial competence, morality, sociability, and attractiveness are therefore plausible influences on both the selection and evaluation stages of science communication, but the existence, loci, direction, and magnitude of their effects are open questions that the current work seeks to address.

Previous SectionNext Section

Results

Studies 1 and 2: Which Facial Traits Are Important to Science Communication?

In study 1, we randomly sampled the faces of scientists from physics (N=108N=108) and genetics/human genetics (N=108N=108) departments of 200 US universities. One group of participants rated these faces on a variety of social traits (e.g., “How intelligent is this person?”) as well as attractiveness and perceived age. Two other groups of participants indicated how interested they would be in finding out more about each scientist’s research (“interest” judgments) or how much the person looked like someone who conducts accurate and important research (“good scientist” judgments). Study 2 was a replication of study 1, using larger samples of faces and participants and more social traits. The faces were a representative sample from the biological sciences (N=200N=200) and physics (N=200N=200) departments of UK universities.

Confirmatory Factor Analysis established that the trait ratings comprised three factors: competence (αStudy1=0.92αStudy1=0.92, αStudy2=0.91αStudy2=0.91), sociability (αStudy1=0.95αStudy1=0.95, αStudy2=0.95αStudy2=0.95), and morality (αStudy1=0.95αStudy1=0.95, αStudy2=0.92αStudy2=0.92) (SI Appendix). Interest judgments and good scientist judgments were reliable and correlated, but were distinct constructs (study 1: αInt=0.72αInt=0.72, αGood=0.89αGood=0.89, correlation between mean judgments for each face r=0.182r=0.182, P=0.008P=0.008; study 2: αInt=0.75αInt=0.75, αGood=0.89αGood=0.89, r=0.279r=0.279, P=0.001P=0.001).

Separate mixed-effects regression analyses predicted interest judgments and good scientist judgments from facial traits (competence, morality, sociability, and attractiveness), scientist demographics [gender, age, discipline, and ethnicity (white vs. nonwhite, ref. 36)], and participant-level variables (age, gender, and level of science engagement), with all predictors entered simultaneously. Science engagement was measured with a custom questionnaire and is a potentially important source of variation in people’s overall interest in scientists’ communications that might modulate the strength of superficial, appearance-based cues (9). We analyzed the two studies separately, and pooled the data to get an overall estimate of effect size. (None of the effects were modulated by study; see SI Appendix.)

Interest in a scientist’s work was more pronounced among participants with higher science engagement (Fig. 1, Left). More importantly, interest was related to the facial traits of the scientist: People were more interested in learning about the work of scientists who were physically attractive and who appeared competent and moral, with only a weak positive effect of apparent sociability. In addition, interest was somewhat stronger for older scientists and slightly lower for females than for males, with little difference between white and nonwhite scientists and no consistent effects of participant gender or age.

 

Fig. 1.

Regression coefficients for studies 1 and 2, and pooled across studies. All predictors were standardized. Error bars show 95% confidence intervals; coefficients with CIs that exclude zero are highlighted in black. P_Age, participant age; P_Female, participant gender; and P_Sci, participant science engagement.Download PPT

Judgments of whether a scientist does high-quality work were positively associated with his or her apparent competence and morality, but negatively related to both attractiveness and perceived sociability (Fig. 1, Right). In addition, older scientists and nonwhite scientists were judged more likely to do good-quality work, but there was little overall effect of the scientists’ gender or of participant-level predictors.

In sum, scientists who appear competent, moral, and attractive are more likely to garner interest in their work; those who appear competent and moral but who are relatively unattractive and apparently unsociable create a stronger impression of doing high-quality research. We found similar results in an additional study that used a standardized face database rather than scientists (see SI Appendix).

Studies 3 and 4: Interest in a Scientist’s Work.

We next investigated whether facial appearance affects people’s choices about which science to engage with, by pairing the titles of real science news stories with faces that had received low or high Interest judgments in studies 1 and 2. By counterbalancing the assignment of faces to articles, we tested whether facial appearance biases people’s selection of science news stories. Study 3 examined whether the effects of face-based impressions were moderated by the scientist’s gender, academic discipline, and communication format (text versus video); study 4 explored the distinct contributions of facial competence and attractiveness, and the moderating influence of participant demographics.

In study 3, members of the public were told that they would read an article or watch a video in which a scientist describes his or her work. On each trial, participants chose which one of four items they would like to read/watch. Two of the titles were paired with “uninteresting” faces, and two were paired with “interesting” scientists, selected from those with the lowest and highest interest judgments in study 1. The article titles were taken from real news items published on ScienceDaily.com and prerated to be of similar, moderate interest to the public (see SI Appendix). The page layout mimicked the selection of science news items or blogs on popular websites. All participants made four choices, one for each combination of the scientists’ gender and research discipline (biology vs. physics), on the understanding that they would subsequently watch/read their chosen items.

Choices were coded according to whether the participant selected an article paired with a “low” face (coded 0) or a “high” face (coded 1). A mixed-effects logistic regression predicted choices from format (text vs. video), discipline, scientist gender, and their interactions, as well as participant age, gender, and science confidence. (The complexity of the design meant we did not include interactions between experimental and participant-level variables for this study.) The choice proportions and regression coefficients are plotted in Fig. 2.

 

Fig. 2.

(Top) (Left) The choice data from study 3 and (Right) the interest ratings from study 4. (Bottom) The corresponding regression coefficients. All predictors were standardized (prior to computing interaction terms). Error bars show 95% confidence intervals; coefficients with CIs that exclude zero are highlighted in black. Fem, female scientist; Int, intercept; Phys, physics news item; Vid, video format. Download PPT

Participants were more likely to choose research that was paired with a photo of an interesting-looking scientist, as indicated by the significant intercept term. This bias was present for both male and female scientists, physics and biology news stories, and video and text formats (all Ps < 0.05). The effect was more pronounced for videos than written articles, and was stronger for biology than for physics, although the effect of discipline depended on the scientist’s gender (for males, BDisc=−0.338BDisc=−0.338, P<0.001P<0.001; for females, BDisc=0.014BDisc=0.014, P=0.893P=0.893). Finally, female participants were more swayed by the scientist’s appearance than were male participants, and the effect of facial appearance diminished with participant age.

Study 4 built on the finding that competence and attractiveness were two key predictors of interest judgments in studies 1 and 2 by varying the attractiveness and competence of the scientists in a 2 × 2 within-subject design. Participants were asked to imagine that they were browsing a website hosting videos of scientists describing their research. Each trial presented one putative video, comprising a biology article title taken from study 3 paired with a male scientist’s photo taken from those scoring in the bottom or top octile on competence and attractiveness in study 2. (The ecological stimulus sample meant that the resulting manipulation of attractiveness was weaker than that of competence; see SI Appendix.) Participants rated how likely they would be to watch the video, completing one trial per cell of the design. A mixed-effects regression predicted interest ratings from competence, attractiveness, and their interaction, along with participant age, gender, science engagement, and their interactions with the facial traits.

Interest judgments were higher for participants with high science engagement and for older participants (Fig. 2). More importantly, interest was positively related to the facial competence of the scientist. There was also some indication that participants were more likely to select articles that were paired with attractive faces, but the effect was small, most likely because the manipulation was weaker. None of the participant-level variables moderated the effects of facial traits.

Taken together, these studies show that facial appearance affects the public’s selection of science news stories.

Studies 5 and 6: Evaluation of a Scientist’s Work.

Finally, we tested the consequences of face-based impressions for the public’s appraisal of a scientist’s work. We paired articles from news websites with faces that did or did not look like good scientists. Study 5 examined the moderating effects of the scientist’s discipline and gender; study 6 dissected the contributions of apparent competence and physical attractiveness, and examined the moderating influence of participant demography.

In study 5, participants were told that they would read articles from a new magazine section comprising profiles of people discussing their interests and work. The articles were adapted from news websites (e.g., newser.com) so as to be of similar length and clarity and to be expressed in the first person, such that a scientist is describing his or her own work to a general audience. Participants read two articles, each presented with a photo of its putative author—one with a high good scientist rating in study 1 and one with a low rating. The scientists’ gender and discipline (biology vs. physics) were varied between subjects. After two filler articles that profiled athletes, participants rated the quality of the two pieces of research. A mixed-effects regression predicted quality judgments from face type, discipline, scientist gender, and their interactions, as well as participant age, gender, and science engagement.

Research that was paired with the photo of a good scientist was judged to be higher quality, and this effect was unaffected by the scientist’s gender and discipline (Fig. 3). In addition, quality judgments were higher for physics articles than for biology articles, and higher among participants who were more engaged with science.

 

Fig. 3.

(Top) The mean quality ratings from (Left) study 5 and (Right) study 6. (Bottom) The corresponding regression coefficients. All predictors were standardized (prior to computing interaction terms). Error bars show 95% Wald confidence intervals; coefficients with CIs that exclude zero are highlighted in black. HiFace, researcher looks like a good scientist. Download PPT

Study 6 used the same 2 × 2 factorial manipulation of competence and attractiveness as study 4. Participants read four physics news stories, each paired with a male face from one cell of the design. They were subsequently shown the face–article pairings one at a time and asked to imagine that they had been selected to judge how much each piece of research deserved to win a prize for excellence in science. The data were analyzed in a mixed-effects regression with the same predictors as study 4.

More-competent-looking scientists were judged more deserving of the prize (Fig. 3). There was only a very weak negative effect of attractiveness, and no competence × attractiveness interaction. (As in study 4, the weak effect of attractiveness may be due to the relative weakness of the manipulation due to stimulus constraints; see SI Appendix.) In addition, older participants and female participants judged the scientists’ work to be more prize-worthy than did younger/male participants, but participant variables did not modulate the effects of facial traits.

Previous SectionNext Section

Discussion

The traits that engender initial engagement with a scientist’s work are distinct from, and sometimes opposite to, those that encourage the belief that the scientist does high-quality research. People reported more interest in the research of scientists who appear competent, moral, and attractive; when judging whether a researcher does “good science,” people again preferred scientists who look competent and moral, but also favored less sociable and more physically unattractive individuals. Notably, these sociocognitive traits “trumped” the influence of age, gender, and ethnicity—variables that are the primary of focus of much work on stereotypes and bias (37, 38)—implying an underlying source of influence that has received little attention in public discourse or academic studies of scientist stereotypes.

Our results further demonstrate the centrality of apparent competence and morality to social outcomes (29, 39), and support the idea that sociability and morality are distinct components of social warmth (25, 40). The conflicting effects of attractiveness on interest and good scientist judgments indicate that, although the stereotypical scientist may be an impartial truth seeker with limited personal appeal (23, 31), people partly treat science communication as a form of entertainment, where emotional impact and aesthetic appeal are desirable qualities (41). Presumably, it is pleasant to look at attractive researchers even if they do not fit one’s conception of a top-notch scientist, a suggestion that is consistent with evidence that good-looking academics receive higher teacher evaluations but do not enjoy greater research success (32).

These face-based impressions affected both the selection and evaluation of science news: People preferentially chose communications that were paired with scientists who looked interesting, and judged real science news stories more favorably when they were paired with faces that looked like good scientists. These results held for male and female researchers, for biology and physics news stories, and for text- and video-based communications, a breadth that implies that real-world metrics of communication success (e.g., web page views or social media feedback) will be positively correlated with the apparent competence of practicing academics.

Although appearance can be an accurate signal of a person’s disposition or abilities (42), this is limited to specific circumstances and traits (19), and the same face can produce radically different impressions (43). Thus, the fact that the same piece of research is evaluated differently when arbitrarily paired with different faces means that facial cues are a potential source of bias in science communication. This bias was not always large, but it is practically significant given the current scale of web-based media production and dissemination, where the 60% preference for “interesting-looking” scientists found in the Video condition of study 3 would amount to tens or hundreds of thousands of extra views. Indeed, the effect was particularly strong for video communications, and the rising use of video media such as TED talks means that face-based judgments are likely to play an increasing role in shaping the public’s engagement with scientific research. Moreover, although people with greater science engagement reported more interest in scientists’ work, engagement did little to moderate the effects of facial appearance on the selection and evaluation of science communications, indicating a pervasive bias that may not readily be rectified by improving motivation or education.

Our results show that science is a social activity whose outcomes depend on facial appearance in ways that may bias public attitudes and government actions regarding key scientific issues such as climate change and biotechnology. Moreover, because effective communication is increasingly important to scientists’ career progression (44), face-based biases may influence not just which scientists’ work gains popularity or acceptance among the public but also which scientific research is actually conducted, and by whom.

Previous SectionNext Section

Materials and Methods

Ethical approval was granted by the University of Essex Faculty of Science Ethics Sub-committee. Participants gave informed consent and were given links to the original sources of the science news stories. The data are available via the University of Cambridge Data Repository. Studies 4 and 6 were preregistered on the Open Science Framework (osf.io/ev794; osf.io/fterb). Additional information about participants, stimuli, procedures, and results is provided in SI Appendix.

Participants.

Participants in study 1 who provided trait ratings for the scientist face set were members of the University of Essex (United Kingdom) participant panel and participated in the laboratory; all other participants were members of the US population recruited via an online platform (45). At the end of all studies, participants provided demographic information and completed a questionnaire to measure their engagement with science (e.g., “I am knowledgeable about science,”“I find scientific ideas fascinating”).

Design and Procedure.

Trial order, block order, stimulus locations, and assignment of participants to conditions were randomized. Assignments of news items to faces and conditions were counterbalanced. Unless otherwise noted, all studies presented stimuli sequentially.

Studies 1 and 2.

The study 1 faces were a random sample of profile pictures from the websites of the physics and genetics/human genetics departments of the top 200 ranked US universities (46), cropped and edited to have a gray background and uniform height (130 pixels). Study 2 used 400 faces randomly sampled from the biological sciences and physics departments of UK universities in proportion to the number of scientists from each institution submitted to the United Kingdom’s 2014 Research Excellent Framework, cropped and standardized to 150-pixel height and presented against their original background (47).

Participants made judgments on a nine-point scale (1 = “not at all,” 9 = “extremely”). In study 1, 54 participants each rated the faces on traits related to competence (competence, intelligence), sociability (likability, kindness), and morality (trustworthiness, honesty) (48), as well as judging the attractiveness of the faces and estimating the face’s age in years (values below 16 and above 100 were discarded). Each dimension was judged in a separate block. The face set was divided into two subsets (54 biologists and 54 physicists per subset); 27 participants judged one subset; 26 judged the other. Two separate groups of participants indicated for all 216 photos “How interested would you be in finding out more about this person’s research?” (N=27N=27) or “How likely is it that this person is a good scientist?” (N=27N=27), with the latter defined as “someone who conducts accurate scientific research which yields valid and important conclusions.”

In study 2, 762 participants rated all faces on 1 of 12 social traits related to competence (competent, intelligent, capable, effective), morality (trustworthy, honest, moral, fair), and sociability (likable, friendly, warm and sociable), or judged attractiveness; a further 68 judged age. Participants could skip a face if they recognized it. Two separate groups provided Interest judgments (N=103N=103) and good scientist judgments (N=103N=103); each participant judged one of six sets of 200 faces.

In both studies, two independent judges rated the ethnicity (white vs. nonwhite) of the photos, with a third judge resolving discrepancies.

Studies 3 and 4.

Study 3 (N=849N=849) used the titles of eight biology and eight physics news stories selected from a prerated pool. For each scientist gender, the four lowest- and four highest-scoring faces on the interest dimension were selected from the study 1 stimuli. To boost the plausibility of the cover story, participants in the video condition completed an audio check at the start of the session. Study 4 (N=408N=408) used the four biology titles from study 3 with the least-extreme interest preratings. On each trial, one of two faces instantiating the relevant attractiveness–competence combination was randomly presented. Ratings were on a seven-point scale.

Studies 5 and 6.

Study 5 (N=558N=558) used four biology and four physics news stories selected from a prerated set for being of similar, moderate quality, of high clarity, and very seldom recognized. The faces were those with the two lowest and two highest good scientist scores for each gender from study 1 (after excluding the lowest-scoring male because of conspicuous headwear). Study 6 (N=824N=824) used the four physics news stories from study 3 with the least-extreme quality preratings, and the face stimuli from study 4.

After reading all their articles, participants were shown the title and photo for each science article; they rated the rigor, importance, validity, and overall quality of the work on a seven-point scale and indicated whether they had seen the scientist (study 6) or read about the research (studies 5 and 6) before the experiment (recognized trials were excluded). The four judgments were averaged (αStudy5=0.882αStudy5=0.882; αStudy6=0.875αStudy6=0.875).

Data Analysis.

All analyses used mixed-effects regression (49) with maximal but uncorrelated random effects, i.e., by-participant random intercepts and random slopes for all effects that are nested within participants (studies 1 to 6) and by-face random intercepts and random slopes for participant-level predictors (studies 1 and 2). Categorical predictors were coded as: gender (male = 0, female = 1); ethnicity (white = 0, nonwhite = 1); discipline (biology = 0, physics = 1); format (text = 0, video = 1); and face type (low on dimension of interest = 0; high = 1). All predictors were standardized (before computing interaction terms). To test simple main effects in study 3, we refit the model using dummy coding of the relevant predictor.

Previous SectionNext Section

Acknowledgments

This work was supported by Economic and Social Research Council studentship ES/J500045/1.

Previous SectionNext Section

Footnotes

  • 1To whom correspondence should be addressed. Email: wjm22@cam.ac.uk.
  • Author contributions: A.I.G., M.J.C., and W.J.S. designed research; A.I.G. performed research; A.I.G. contributed new reagents/analytic tools; A.I.G. and W.J.S. analyzed data; and A.I.G., M.J.C., and W.J.S. wrote the paper.
  • The authors declare no conflict of interest.
  • This article is a PNAS Direct Submission. A.T. is a guest editor invited by the Editorial Board.
  • This article contains supporting information online at www.pnas.org/lookup/suppl/doi:10.1073/pnas.1620542114/-/DCSupplemental.

Freely available online through the PNAS open access option.

REFERENCES

 

Un bon chercheur est un chercheur moche

Un bon chercheur est un chercheur moche

(Facial appearance affects science communication)

Ah qu'il était bon le temps où, non soumis au diktat de la communication, les chercheurs ne faisaient que chercher. Qu'elle est loin l'époque où l'on pouvait rester dans son laboratoire sans avoir besoin de faire la danse des sept pompons pour attirer les médias, pour défendre son équipe dans l'âpre compétition scientifique internationale ou pour arracher un budget aux coffres-forts des Picsou de la recherche. Sans tomber dans les excès de la NASA qui a bien dû nous vendre une dizaine de fois la présence d'eau sur Mars comme étant « une percée majeure », les chercheurs sont invités à se jeter dans l'arène publique, à participer aux débats de société, à donner des conférences de vulgarisation, à faire des vidéos sur Youtube voire à se lancer dans la politique comme le mathématicien Cédric Villani, candidat aux prochaines législatives dans l'Essonne sous l'étiquette La République En Marche !

La promotion – si ce n'est la survie – de la science est à ce prix... Toutefois, mettre le pied dans le monde du paraître nécessite d'assimiler des codes nouveaux – et pas seulement vestimentaires – bien éloignés de ceux du labo et du peer review. Chez Guignol on ne peut se contenter de décortiquer les faits et les observations pour en faire jaillir le savoir sous les yeux d'un public ébahi. Chez Guignol existe une « variable » inhabituelle et encore bien plus subtile à dompter que le système d'optique adaptative du Very Large Telescope : vous. Vous, votre tête, votre voix, votre phrasé, votre charisme de moule, votre trac, votre pull jaune…

Comme la science ne déteste rien tant que ce dont elle ne contrôle pas tous les paramètres, une équipe britannique des universités d'Essex et de Cambridge a donc, dans les Proceedings de l'Académie des sciences américaine du 22 mai, publié une étude consacrée à l'influence du visage des chercheurs sur la communication. Partant du principe que le quidam se fait, en moins d'une seconde, à la simple vue d'une personne, une idée de son caractère et de son intelligence, ces psychologues ont recueilli des centaines de photographies de chercheurs en physique et en génétique pour les soumettre à des « cobayes ». Tous les clichés avaient subi un traitement graphique pour que les visages aient la même taille et apparaissent sur le même fond.

Plusieurs tests ont été menés, au cours desquels les participants devaient noter l'intelligence, la compétence, la gentillesse, l'honnêteté, l'âge, l'attractivité des personnes photographiées et juger leur capacité à rendre intéressante une information scientifique et à être de bons chercheurs. Et là, surprise : suivant le but recherché, le physique agréable se révèle un atout ou un handicap. S'il s'agit d'expliquer en trois phrases et demie, à la télévision, les principes de la physique quantique, il sera plus judicieux d'envoyer une beauté sur le plateau de Cyril Hanouna : le message passera mieux. Mais s'il faut simplement incarner le ou la scientifique de qualité, choisissez quelqu'un dont l'attractivité et la sociabilité apparente sont médiocres, voire douteuses, voire lamentables. Peut-être faut-il voir là l'influence des stéréotypes. Les grandes figures de la science, que ce soit Albert Einstein, Stephen Hawking, Charles Darwin ou Tryphon Tournesol ne sont pas des Miss Univers. A en croire cette étude, un bon chercheur est un chercheur moche. Encore faut-il que l'on accorde foi aux résultats de ce travail. Les auteurs ont en effet négligé de faire figurer un élément important dans leur étude : leur photo.

Source : Pierre Barthélémy, Improbablologie 266

 

 

Résonance, ponts et verres

 

Vous n'arrivez pas à voir les images ? Contactez-nous sur jean@artips.fr
Carte postale : Pont suspendu de la Basse-Chaine avant la Catastrophe du 16 avril 1850, Angers
Voir en grand

1850, Angers. Alors que la tempête se déchaîne, un régiment d’infanterie se dirige vers l’une des places de la ville. Pour y arriver, les hommes traversent le pont suspendu de Basse-Chaîne. Ces centaines de soldats marchent énergiquement, au pas cadencé. Une erreur qui leur est fatale…

Vous n'arrivez pas à voir les images ? Contactez-nous sur jean@artips.fr
Catastrophe du Pont suspendu, actuellement Pont de la Basse-Chaîne en l’année 1850, Angers
Voir en grand

En effet, une fois arrivé sur le pont, le régiment ne ralentit pas son allure et conserve la cadence. Soudain, alors que l’intégralité du régiment est sur le pont, celui-ci s’effondre ! Tous les hommes tombent à l’eau. Les témoins de l’époque rapportent un terrible carnage : plus de 200 soldats périssent noyés, percés par leurs baïonnettes ou écrasés sous les restes du pont…

Vous n'arrivez pas à voir les images ? Contactez-nous sur jean@artips.fr une vidéo : https://www.youtube.com/watch?v=Rmfl2kFeNPM
L’effondrement du pont de Tacoma, dû au phénomène de résonance, le 7 novembre 1940 https://goo.gl/QP0RMT

Mais que s’est-il passé ? Les ponts, comme toute structure, possèdent des fréquences propres qui s’expriment en hertz, c’est-à-dire en nombre de vibrations par seconde. Or, le pas des soldats génère également des vibrations (2 à 3 hertz). Lorsque les fréquences de ces vibrations, celle du pont et celle des pas des soldats, deviennent très proche, il se produit un phénomène physique dit de "résonance". Ce phénomène provoque une amplification de la vibration naturelle du pont, qui se met soudain à onduler.

N’ayant pas été conçu pour résister à un tel mouvement, le pont finit par céder.

Vous n'arrivez pas à voir les images ? Contactez-nous sur jean@artips.fr
Démonstration du phénomène de
résonance provoquant l'explosion d'un verre en cristal

De la même façon lorsque la Castafiore parvient à chanter, proche de la fréquence propre d’un verre de cristal, il explose !

Après la catastrophe, l’émoi est tel qu’une commission d’enquête est lancée. On accuse les câbles, un peu vétustes, et la tempête. Surtout, on comprend les dangers possibles du phénomène de résonance pour les ponts.

Ce genre de désastres brutaux a donc eu une conséquence surprenante. Dans les règlements militaires, il est désormais rigoureusement interdit de marcher au pas sur un pont !

Sur le phénomène de résonance (vidéo)

 

Epistémologie de la Physique

Epistémologie de la Physique


Définition

L'épistémologie de la physique étudie avec précision les différentes écoles qui se sont succédé du point de vue de la conception des phénomènes naturels mais aussi du point de vue de la méthode et de la logique propres à cette science.

On distingue traditionnellement 6 grands types d'écoles d'épistémologie de la physique :

1 - Matérialisme et mécanisme
Les philosophes atomistes matérialistes et mécanistes qui considèrent que la nature , la " physis " en grec est composée d'une multiplicité d'éléments (les atomes) et que les rapports entre les corps ne peuvent s'expliquer qu'en terme de chocs et non en terme de formes substantielles (opposition à la physique d'Aristote et à celle des scolastiques).

2-L'hylémorphisme
Les philosophes hylémorphistes qui pensent comme Aristote que la nature est un mélange, un composé de matière et de forme. Pour eux le rouge d'une pierre est le produit de l'actualisation de la forme rouge dans la matière de la pierre (et non pas le produit de l'interaction entre la structure matérielle de la lumière et celle de la pierre). Les philosophes scolastiques (ex Saint Thomas) sont les grands défenseurs de cette théorie.

3-Le positivisme
Les philosophes positivistes rejettent dos à dos matérialistes, hylémorphistes et mécanistes. Pour eux toutes ces positions sont métaphysiques, elles ne signifient rien de concret ni de réel. La question de savoir ce qu'est la structure de la nature ne leur semble donc pas valide. La nature n'est compréhensible et descriptible que comme ensemble de lois. Les philosophes positivistes considèrent de plus que la science est le modèle même de toute connaissance et qu'elle constitue la forme la plus achevée du développement de l'esprit humain. Après l'âge théologique et l'âge métaphysique, c'est l'âge scientifique qui correspond au faîte de la pensée qui doit advenir et permettre aux hommes d'organiser différemment leurs rapports à l'intérieur de la société.

4-L'empirisme inductif
Les philosophes inductivistes qui sont traditionnellement empiristes et admettent que le contenu du savoir incorporé dans les théories de physique est issu de l'expérience. Pour eux le raisonnement propre à la réflexion scientifique est l'induction (à partir de l'observation de faits particuliers on infère une proposition générale ou loi).

5-L'idéalisme déductif
Les philosophes déductivistes qui sont traditionnellement idéalistes et considèrent que le fondement véritable de toute théorie de physique réside non pas dans l'expérience (domaine de l'extériorité) mais dans l'esprit humain (domaine de l'intériorité) et dans les catégories qui se trouvent originellement en lui. Au fondement de toute loi se trouve donc pour eux une idée innée (innéisme) ou bien une catégorie de l'entendement humain (idéalisme transcendantal).

6-L'empirisme logique et les autres
A partir du XXème siècle l'interrogation sur les sciences physiques s'est déplacée et on a vu s'opposer d'un côté les épistémologues traditionnels de la connaissance (inductivistes logiques) et de l'autre des épistémologues originaux proposant de nouvelles théories de la science (ex : le falsificationnisme de Karl Popper et les théories anarchistes de la connaissance de Paul Feyerabend).

Les grandes formes d'épistémologie de la Physique

L'hylémorphisme

Développée par Aristote l'hylémorphisme est l'une des théories de physique qui aura eu la longévité la plus grande. C'est elle en effet qui à partir du treizième ème jusqu'au dix-septième siècle sera reconnue comme étant la physique officielle. Elle était enseignée dans les universités et les écoles (en latin " scola " signifie l'école, d'où son nom de physique scolastique) et était totalement incorporée au dogme chrétien. C'est pourquoi aussi Galilée et Descartes ont subi tant de pressions sur le plan politique et ont eu maille à partir avec l'Eglise. En effet s'attaquer à la physique hylémorphiste c'était de manière indirecte s'en prendre à l'un des fondements de l'édifice religieux et par conséquent remettre en cause l'ordre politique lui-même.

L'hylémorphime qui affirme que la nature est un composé de matière et de forme aura été également l'une des théories les plus critiquées aussi bien dans sa version grecque (puisque c'est à cette théorie qu'Epicure s'oppose) que dans sa version chrétienne (à laquelle se seront opposés Descartes, Galilée, Hobbes..). Loin d'être cependant ridicule et incohérente, cette physique mérite que l'on s'y intéresse, elle permet de mieux saisir en effet l'apport de la physique cartésienne. De plus si l'on s'intéresse à Aristote la connaissance de cette physique permet de faire le lien avec sa métaphysique et de bien comprendre en quoi elle constitue un effort admirable par rapport à la conception platonicienne de la nature. Nous ne pouvons donc que conseiller de lire les pages concernant l'hylémorphisme et Aristote dans la suite du texte.

Le matérialisme

Développée par Démocrite d'Abdère et Epicure de Samos, la philosophie matérialiste est une conception entièrement concrète et corporelle de tous les phénomènes de la nature. Elle se présente à la fois comme une philosophie de la physique (il est intéressant de ce point de vue de voir combien les vues d'Epicure ont pu être confirmées par la science du xx ème siècle) mais aussi comme un instrument de lutte contre la superstition religieuse. En privilégiant l'idée qu'il est possible d'expliquer tous les phénomènes naturels à partir de nos sens et à partir des mouvements entre les atomes (particules infiniment petites, insécables et éternelles), Epicure a appris aux hommes à ne plus craindre les dieux et les phénomènes naturels (orage, tempête, séisme) ainsi que les mauvais présages dont ils semblaient être le signe.

Le mécanisme

C'est à Descartes et à la physique des chocs dont il a développé les bases dans ses Principes de philosophie que l'on doit le modèle de construction d'une physique entèrement mécaniste qui se propose de ramener l'explication de tous les phénomènes à de simples mouvements entre les corps et aux types de rapports de causalité sur lesquels ils reposent. Pour Descartes dans le domaine de l'étendue tous les événements sont explicables en terme de " chocs " , de mouvements entre les corps et il n'y a rien d'autre que cela qui puisse en rendre raison.

S'il s'oppose de ce point de vue aux penseurs hylémorphistes et aux physiciens scolastiques qui voyaient des formes présentes partout dans la nature, Descartes ne s'oppose pas moins aux auteurs matérialistes. Pour lui en effet les atomes d'Epicure n'existent pas car la nature à horreur du vide, elle est absolument pleine.

A l'explication atomiste qui suppose l'existence de particules infiniment petites séparées par des espaces vides, Descartes substitue donc un mode d'explication mécaniste et tourbillonnaire (pour lui la nature est composée de particules qui tourbillonnent dans un fluide, une sorte d'éther et les corps ne bougent que s'ils subissent des chocs).

Le mécanisme matérialiste

Deux auteurs représentent bien la synthèse entre matérialisme et mécanisme, ce sont d'une part Hobbes philosophe anglais du XVIIème siècle et La Mettrie philosophe français du dix-huitième. Le premier est plus connu pour les conceptions politiques qu'il a développées en tant que théoricien du monarchisme, le second pour ses théories liées au plaisir et à sa recherche nécessaire. Néanmoins on trouvera chez Hobbes, notamment dans son ouvrage sur Les Eléments de la loi naturelle et politique des analyses qui permettent de faire la synthèse entre une conception cartésienne de la physique et une vision entièrement matérielle de la nature (hostilité à la notion d'âme, hostilité à la physique scolastique, explication des phénomènes lumineux en terme matériels…). L'ouvrage de La Mettrie , L'Homme machine, constitue quant à lui le modèle d'une conception entièrement matérialiste et mécaniste de l'homme et de la nature. L'idée de Dieu s'y trouve considérablement critiquée. Ici et contrairement à Hobbes qui entend conserver l'idée de Dieu pour des raisons de sécurité et d'ordre en matière politique, le matérialisme se fait athée. Il est intéressant de plus de voir comment La Mettrie dans ses autres ouvrages relie sa conception matérialiste et mécaniste à une éthique du plaisir qui n'est pas sans rappeler celle d'Epicure.

L'inductivisme et l'empirisme

C'est à partir du dix-septième siècle en angleterre, que la philosophie empirico-inductive prend son véritable essor. Les grands noms de cette philosophie sont Francis Bacon(1561-1626), père de la méthodologie expérimentale, John Locke (1632-1704) qui est aussi sensualiste, Hume(1711-1776) qui développe un empirisme sceptique et critique la notion d'induction, Mill qui définit les quatre grandes formes du raisonnement inductif dans les sciences et William Whewell qui propose une théorie originale de l'induction, (sorte de synthèse entre l'idéalisme et l'empirisme). Bien que ces auteurs différent entre eux et que chacun apporte sa pierre à l'édifice de pensée empirico-inductif, on ne peut pas ne pas voir qu'ils se situent sur un même continent de pensée. L'adhésion de Newton (1642-1727) aux grandes thèses inductivistes a donné un poids considérable à cette philosophie et constitue le modèle même de l'épistémologie de la physique classique. Néanmoins l'apparition de nouvelles théories de physique au début du XXème siècle (Einstein et la relativité, Heisenberg et la théorie des quanta) va considérablement diminuer son potentiel explicatif.

L'idéalisme déductif

L'idéalisme déductif peut être de deux types : il est soit innéiste soit transcendantal. Dans le premier cas on aboutit à la philosophie de Leibniz et à l'idée selon laquelle l'ensemble des lois de la nature que nous découvrons, ne sont pas le pur produit de l'observation ni de la sensation mais d'une opération intellectuelle de ressouvenir (au cours de laquelle nous ne faisons que développer ou " déplier " des idées qui se trouvent de toute éternité en nous). Cette conception pose le problème de savoir qui a placé en nous toutes ces lois de physique et ces vérités mathématiques : Leibniz répond à cet égard et sans hésitation que c'est Dieu qui l'a voulu ainsi en fonction du principe du meilleur qui veut que nous vivions dans " le meilleur des mondes possibles ". Dans le deuxième cas c'est à la philosophie de Kant à laquelle on parvient et au fameux système de l'idéalisme transcendantal. Opposé aussi bien à l'idée de Hume selon laquelle tout notre savoir provient de l'expérience (entendez par là de l'influence des objets extérieurs sur nos sens) qu'à celle de Leibniz selon laquelle le contenu de notre savoir est de toute éternité contenu en nous, Kant a émis l'idée que seule la forme des catégories de notre savoir est présente dans notre entendement en dehors de l'expérience mais que le contenu de ces catégories ne peut être rempli que par l'expérience. Il évite ainsi à la fois le dogmatisme leibnizien qui tendait à rendre inné le contenu de notre savoir théorique mais aussi le scepticisme humien qui rendait le savoir incertain et détruisait l'idée de nécessité. Pour Kant la nécessité de notre savoir réside dans la forme de notre entendement et dans les catégories qui le composent en tant qu'elles sont a priori (catégorie de la substance, de la causalité, de l'action réciproque..). Cette nécessité formelle rétroagit sur le contenu objectif du savoir qui se trouve dès lors fondé en certitude. Ainsi la troisième loi de newton sur l'action réciproque est originellement fondée sur la catégorie pure a priori de la " communauté " mais son contenu propre est conçu par Kant comme provenant bien entendu de l'expérience, c'est à dire de l'observation des phénomènes naturels. Empirisme et innéisme se trouvent dès lors à la fois englobés et dépassés par l'idéalisme transcendantal.

Le positivisme

La philosophie positive des sciences se présente avant tout comme une tentative de dépassement des philosophies précédentes de la physique. Elle prétend rejeter aussi bien le matérialisme que l'hylémorphisme, l'empirisme et l'idéalisme dans l'abîme de la métaphysique et de ses idées creuses. Fondée sur le développement des sciences physiques au dix-neuvième siècle, elle trouve son plus grand représentant dans la figure du philosophe français Auguste Comte. A la question pourquoi " x " ou " y " ?, le philosophe positiviste substitue la question comment " x " ou " y " ? et y répond à l'aide de lois mathématico-physiques(ce que faisait déjà Newton). Pour lui le problème de la structure de la matière ou de la nature n'a plus de sens, seul compte le fait que tous les phénomènes puissent être exprimés à l'aide de lois et que ces lois soient cohéremment organisées dans le tout d'une théorie ou d'un système physique.

L'empirisme logique

C'est autour des membres du cercle de Vienne que s'est développée au début du xx ème siècle une nouvelle conception de l'épistémologie de la physique : l'empirisme logique. Elle prend ses bases à la fois dans l'apparition de la nouvelle logique des prédicats élaborée par Frege et Russell ainsi que dans le développement de la nouvelle physique ( en l'occurrence celle de la relativité). Rudolf Carnap est le plus grand représentant de cette école ainsi que son meilleur défendeur. Très hostile à la métaphysique, il montre dans un ouvrage intitulé La Métaphysique devant l'analyse logique du langage, que les concepts de cette " fausse science " sont absolument dénués de référent, qu'ils ne désignent rien et que par conséquent ils n'ont pas de sens. Les idées d'âme ou de Dieu se trouvent ainsi ravalées au rang de simples " babu " (concept type qui symbolise tous les mots qui ont une définition qui ne renvoie à rien d'observable). Cette franche critique de la métaphysique, comparable à celle du positivisme comtien, explique que l'on ait parfois pu donner à l'empirisme logique le nom de " positivisme logique ". Persuadé de la validité du principe d'induction qui veut que l'on puisse inférer une proposition générale à partir de faits et de propositions particulières. Il élabore dans son maître ouvrage La Construction logique du monde, une théorie originale de la connaissance. Il part de l'idée que le système du savoir repose sur un petit nombre de faits d'expériences qui sont comme des faits " atomiques " et que c'est à partir de ces faits et de généralisations successives que s'élaborent nos conceptions les plus universelles parmi lesquelles on trouve les lois et les théories de physique. Très en vogue au début du XX eme siècle cette théorie a fait l'objet de critiques acerbes ce qui ne doit pas vous empêcher de lire le grand ouvrage de philosophie de la physique écrit par Carnap, Les Fondements philosophiques de la physique qui est encore aujourd'hui une référence incontournable en matière de philosophie des sciences.

De nouvelles épistémologies

Le faillibilisme, le paradigmatisme, l'épistémologie dialectique et les théories anarchistes de la connaissance constituent sans doute les formes les plus modernes de l'épistémologie de la physique. Elles se situent toutes dans une perspective d'opposition aux épistémologies précédentes.

Karl Popper et le faillibilisme

Le faillibilisme de Karl Popper s'oppose notamment à l'idée que la confirmation ou la vérification empirique puissent être des critères valides de détermination de la scientificité d'une loi ou d'une théorie. Pour Popper une théorie n'est jamais absolument confirmée ni vérifiée (contrairement à ce qu'affirme Carnap), elle se contente de résister à toute une série de tentatives de réfutations ou de falsifications. Tant qu'elle leur résiste la théorie est conservée mais dès lors qu'elle ne résiste plus à ces tests de falsification, elle est abandonnée au profit d'une autre théorie ( c'est ainsi que la physique de Newton est remplacée par celle d'Einstein) qui sera elle même soumise à des tests de réfutation etc.. La scientificité d'une théorie réside donc dans sa capacité à pouvoir être réfutée ou soumise à des tests de réfutation. Si tel n'est pas le cas ce n'est pas une théorie scientifique au sens fort du terme. C'est pourquoi du reste Popper considérait comme non réfutables les théories psychologiques et psychanalytiques de Freud et de Adler dans la mesure où selon lui ces théories pouvaient toujours prétendre ne pas avoir été réfutées. Cette dernière assertion de Popper est du reste très discutable puisque l'on voit bien que les psychologues n'hésitent pas à se réfuter et que, de ce processus de réfutation, ressort souvent un progrès dans la théorie elle même.

Kuhn et la philosophie des paradigmes

La philosophie des paradigmes développée par Khun dans son ouvrage intitulé La structure des révolutions scientifiques, constitue une tentative originale d'explication du passage d'une théorie de physique à une autre. Pour Khun le cœur d'une théorie de physique réside avant tout dans quelques idées essentielles qui constituent son cœur rationnel et qui tant qu'elles ne sont pas remises en question font le succès d'une théorie (ex : l'idée d 'attraction universelle, d'action réciproque, d'inertie, d'espaces absolus et relatifs, de temps absolus et relatifs dans la physique de Newton). Dès lors que le paradigme, c'est à dire l'ensemble de ces quelques idées se trouve radicalement remis en question, on opte alors pour une autre théorie qui possède un paradigme différent (ex : les idées d'une vitesse de la lumière invariante et indépassable, d'espaces et de temps exclusivement relatifs dans la physique de la relativité). Cette conception à l'intérêt de mettre le doigt sur ce qui est essentiel dans une théorie de physique et de rendre mieux compte que les philosophies inductives ou déductives des différentes ruptures qui ont été opérées dans les sciences de la nature au début du xx ème siècle.

Bachelard et l'épistémologie dialectique

L'épistémologie dialectique de la physique trouve son plus grand représentant en la personne de Gaston Bachelard. Pour ce grand philosophe des sciences la logique qui sous tend le développement des sciences n'est rien d'autre que la logique dialectique, c'est à dire une logique de la contradiction et de la négation. Les théories progressent en se niant, en se contredisant les unes à la suite des autres. Ce processus de négation perpétuel constitue le moteur du savoir et de la connaissance. C'est en surmontant des obstacles épistémologiques que la science progresse et c'est en adoptant une attitude de négation qu'elle ouvre les portes vers un nouveau savoir (ex : la philosophie des quanta qui vient contredire les principes de la logique classique et ouvre la voie à une nouvelle forme de philosophie , plus ouverte et moinds dogmatique, la philosophie du non).

La théorie anarchiste de la connaissance

Dernière grande forme d'épistémologie de la physique, la théorie anarchiste développée par Paul Feyerabend, se veut résolument hostile à l'idée de méthode. Faisant preuve de beaucoup de rigueur dans sa démonstration, Feyerabend met en évidence le fait que bon nombre d'avancées dans les sciences ont été opérées à partir d'hypothèses " ad hoc " c'est à dire d'hypothèses arbitraires, non fondées rationnellement ni même méthodologiquement et contredites par les observations les plus sures réalisées à l'époque. Ce ne serait donc pas l'application de la méthode scientifique telle qu'elle a pu être codifiée par Mill, Claude Bernard ou Popper qui serait à l'origine des grandes avancées scientifiques, mais le hasard, le chaos " relatif " et la capacité des hommes de science à sortir de la route toute tracée par la méthode. Feyerabend peut conclure son ouvrage par une proposition qui est plus qu'un slogan et annonce tout un programme et une conception des choses. En matière de progrès scientifique, il n'y a aucune idée, aussi saugrenue soit-elle qui puisse-t-être écartée :"tout est bon ".

 

Source : http://s.bourdreux.free.fr/education/epistemologie/epistemo_physique.html

"D’après une étude" : cet imparable argument d’autorité...

« D’après une étude » : cet imparable argument d’autorité...

« Les couches-culottes sont toxiques pour les bébés, d’après une étude »… « D’après une étude, les gens qui se parlent à eux-mêmes seraient des génies »… « D’après une étude, le spoiler est bon pour vous »… Il ne se passe pas un jour sans que les médias (que je consulte) utilisent cette formule. Certains des articles sont très bien écrits et, rapportant ce qui a été fait dans l’étude, permettent réellement au lecteur de se faire une opinion argumentée. D’autres se contentent d’un gros titre et de quelques considérations générales, attrayantes, mais pas étayées. C’est là que le bât blesse.

Publis. European Southern Observatory/FlickrCC BY

En creusant un peu, on se rend vite compte que, pour chaque étude montrant un résultat « blanc », il y en a au moins une autre qui montre un résultat « noir ». Alors, pourquoi se fier plus à l’une qu’à l’autre ? Parce qu’elle a été relayée davantage par les (multi-)médias ? Parce qu’elle est attribuée à « une université prestigieuse » ou à un « grand professeur » ? Ou encore parce qu’elle a été qualifiée de « très sérieuse » ? Parce qu’elle a été mieux faite ? Ce dernier argument est peut-être celui qui tombe le mieux sous le sens. À condition de savoir décortiquer ces fameuses études. Voici un mode d’emploi et quelques recommandations d’usage.

Les dessous d’« une étude… »

Il existe plusieurs formats pour la publication des articles scientifiques, mais tous ont en commun une structure, concrète, efficace, souvent éloignée de la belle histoire que l’on peut en tirer a posteriori. « Une étude », c’est un titre, des auteurs, un résumé, une introduction, des méthodes, des résultats, une discussion, des remerciements, des références.

Description scientifique en 1904 d’une nouvelle espèce d’araignée, Pacificana cockayniH.R. Hogg/The Annals and Magazine of Natural History

D’abord un titre. C’est la première chose qu’on lit. Certains sont accrocheurs, mais ils peuvent manquer de nuances, et laisser entendre beaucoup plus qu’ils n’ont vraiment à dire. De plus, les retranscriptions ne sont pas toujours fidèles. Un matin (le 6 février 2017), j’ai tapé « d’après une étude » dans mon moteur de recherche, et sur la première page, j’ai cliqué sur le lien « D’après une étude, les femmes codent mieux que les hommes » qui m’a renvoyé vers le site du journal Le Parisien. De là, j’ai accédé à l’article original intitulé « Gender biais in open source : pull request acceptance of women versus men ». Il est bien question d’hommes et de femmes, mais ce que dit le titre de l’article initial, ce n’est pas que les femmes codent mieux que les hommes, juste qu’il y a une différence entre les deux sexes que les chercheurs souhaitent comparer. Aussi bien écrit que soit l’article en ligne du Parisien, on notera simplement que l’étiquette ne correspond pas complètement au produit.

Puis, des auteurs. Des humains donc. Des humains qui signent leur article et qui en assument donc la responsabilité intellectuelle. Les auteurs assurent, s’il y a lieu, le service après-vente de leur article. Une critique constructive ? Des compléments à apporter ? Des interrogations légitimes ? Les auteurs peuvent – et doivent – y répondre. Leur nom est toujours accompagné par leur affiliation, c’est-à-dire l’université ou l’institut de recherche qui les emploie.

Un article de Cell, revue réputée en biologie. Cell

Le nombre des auteurs signataires d’un article est très variable d’une étude à l’autre. Il existe un ensemble de règles définissant quelles sont les contributions de chacun qui justifient de signer. Elles sont plus ou moins suivies à la lettre, mais en général, sont considérées comme auteurs toutes les personnes qui ont élaboré l’étude, analysé et interprété les données, rédigé, apporté des critiques constructives ayant permis de renforcer la qualité de l’article. Les personnes qui ont acquis les données sont, selon les cas, considérées comme auteurs ou remerciés à la fin de l’article.

Plusieurs anonymes participent également à améliorer la valeur de l’article avant sa publication. Ce sont les reviewers, c’est-à-dire les deux ou trois spécialistes que l’éditeur contacte pour émettre un avis critique et constructif sur l’article que lui ont soumis les auteurs. Les échanges entre les auteurs, l’éditeur et les reviewers permettent de lever les ambiguïtés quant aux méthodes et aux interprétations et constituent une manière de valider la solidité des résultats et de leurs interprétations. Une sorte de contrôle qualité.

Le résumé n’est qu’un résumé

Le résumé (ou abstract) est aussi synthétique que possible. S’il est bien écrit, il informe sur ce qui a motivé l’étude, sur les grandes lignes de la méthodologie employée, il donne les principaux résultats et les principales conclusions que les auteurs en tirent, à la lumière de la question posée. Toutefois, le résumé n’est qu’un résumé. Souvent moins de 300 mots. C’est très court pour rendre compte de plusieurs mois, voire années, de travail. C’est surtout trop court pour apporter toutes les nuances nécessaires pour comprendre les résultats sans les sur-interpréter. Malgré les efforts déployés, le nombre d’articles en accès libre pour le lecteur reste encore très limité de sorte que le citoyen curieux n’a souvent accès qu’au résumé de l’article. Toutefois, on espère (qu’en est-il, vraiment ?) que ceux qui le retranscrivent pour grand public ont eu accès à sa version intégrale.

L’introduction… introduit l’article. Elle énonce le contexte de l’étude, pose les concepts et détaille les hypothèses de travail. C’est souvent la partie la plus accessible et la plus didactique de l’article. Tout simplement parce que ses auteurs veulent être bien compris par leurs lecteurs ! J’ai l’habitude de dire aux étudiants que j’encadre que si l’introduction est bien écrite, alors à la fin, le lecteur doit être en mesure de formuler lui même les hypothèses testées par les auteurs.

Ce qui fait la différence fondamentale entre un article scientifique et toute autre forme d’écrit scientifique à destination du grand public, c’est la partie matériels et méthodes. Si je lis sur mon paquet de dentifrice que 90 % des personnes interrogées sont satisfaites par le produit, alors je me demande 90 % de combien ? Est-ce que 9 personnes sur 10 interrogées ont été satisfaites, ou bien 900 sur 1000 ? Et puis satisfaites de quoi ? Sur quels critères a été évaluée la satisfaction ? Comment les utilisateurs ont-ils été interrogés (questionnaire numérique, papier, interview, téléphone…) ? Et comment ont il été choisis ? Au hasard ? Dans plusieurs régions ? Les a-t-on rémunérés ? Ont-ils reçu des offres promotionnelles en remerciement ? C’est à ce genre de questions, légitimes, que doit répondre la partie matériels et méthodes.

À elle seule, cette partie peut occuper plus du tiers de la longueur de l’article ! Voyez là comme la retranscription détaillée du protocole que les auteurs ont utilisé. Une sorte de recette de cuisine. Si cette partie est aussi détaillée, c’est pour permettre la reproductibilité de l’étude. De l’étude. Pas nécessairement du résultat.

Partant de là, on comprend bien que les résultats d’une étude ne valent rien en tant que tels s’ils ne sont pas présentés dans un contexte général et si l’on n’a qu’une idée floue de la manière dont ils ont été obtenus (comprenez : les 90 % de satisfaction de mon tube de dentifrice ne valent pas grand-chose). D’autant que la partie résultats des articles scientifique est d’une lecture que je qualifierai « d’aride ». Des chiffres. Des pourcentages. Des moyennes. Des intervalles de confiance. Des tableaux et des figures. Des faits, rien que des faits. Pas d’interprétation. Pas encore.

Première revue scientifique en France, 1665. Journal des scavans

Les interprétations ne viennent que dans la partie qualifiée de « discussion ». C’est là que les auteurs interprètent leurs résultats à la lumière des hypothèses qu’ils ont formulées. Quand je rédige la discussion de mes articles, je dois donner à mon lecteur tous les éléments qui lui permettent de replacer mes résultats dans un cadre plus large que celui de mon étude. Je lui montre en quoi l’article qu’il est en train de lire constitue une avancée dans la compréhension d’un problème. Aussi objectif que j’essaie d’être, et avec tous les garde-fous imaginables, il est permis qu’un lecteur, sur la base des résultats, ait des interprétations si ce n’est différentes, au moins nuancées. Et c’est tant mieux !

La discussion peut aller au-delà des seuls faits et proposer des interprétations et des implications plus générales, pour peu que je les argumente en confrontant mes résultats à ceux présentés dans d’autres articles. Cela implique de mentionner tout aussi bien les études qui vont dans le même sens que mes résultats que les études montrant l’exact opposé : « J’ai montré que X. Ce résultat est conforme à la théorie Y selon laquelle… et qui est confirmée par les travaux de Doe et coll. 1999, Durand et coll. 2003, Martin et coll. 2015. Cependant, mon résultat est contraire à l’idée proposée par Dupont et Dupond 2007 selon laquelle… ». Et de comparer les approches expérimentales des uns et des autres pour expliquer les points de convergence et de désaccord.

La discussion contextualise donc les résultats présentés. Implicitement, tous les auteurs de toutes les études – je crois – admettent la règle selon laquelle des résultats ne sont valables que dans le cadre théorique et méthodologique dans lequel ils ont été établis. Si des extrapolations sont possibles, elles doivent être faites avec beaucoup de prudence.

Entendons-nous bien : la spéculation est saine si elle est étayée. Elle stimule le débat. Toutefois, les perspectives et implications des études que présentent les auteurs à la fin de leurs articles (en général) ne doivent en aucun cas être confondues avec les conclusions qui, elles, se fondent sur des résultats.

Cela peut paraître anecdotique, mais il est toujours intéressant de jeter un œil aux quelques lignes de remerciements qui précèdent la liste des références. C’est notamment là que sont mentionnés les sources de financement qui ont permis de réaliser l’étude. La question n’est pas de chercher systématiquement à remettre en question le contenu d’une étude sur la seule base de sa source de financement, mais si conflit d’intérêt il y à, il devrait être indiqué dans ce paragraphe.

Exemple de déclaration d’intérêt. JAMA

De ce qui précède, on aura pu lire entre les lignes qu’en fin de compte, ce qui est nouveau dans « une étude », ce sont les résultats. Le reste de l’article emprunte à d’autres publications pour présenter le contexte, décrire des outils et des méthodes, étayer des arguments. Pour rendre à César ce qu’il lui appartient, et permettre à chacun de suivre ou de vérifier les arguments des auteurs, à chaque affirmation est associée une ou plusieurs références dont la liste est systématiquement fournie, dans le détail, à la fin de chaque article.

« Une étude », non, des études oui

La science n’est pas un catalogue de résultats publiés dans lequel chacun peut aller piocher les arguments qui abondent dans son sens ou contredisent les arguments du voisin : ce que les Anglo-saxons appellent joliment le cherry-picking. C’est un processus dynamique qui répond à un certain nombre de critères de qualité dont les plus importants sont la transparence et la reproductibilité.

La science, c’est avant tout une démarche, et une démarche exigeante. Toutes les études sont dignes d’intérêt, à condition d’être transparentes et que leur message s’appuie sur une méthodologie claire et des résultats interprétés dans la limite des conditions fixées par l’étude. Face à un contradicteur, clamer « si, c’est vrai, je l’ai lu dans une étude » n’est pas satisfaisant, parce que votre contradicteur pourra brandir une autre étude tout aussi valable. Il est normal que des études se contredisent. Si vous voulez jouer, prononcez les mots « OGM » et « bio » pendant un repas de famille, vous verrez ! C’est en confrontant des résultats opposés que l’on avance et que, petit à petit on arrive à mieux délimiter les contours d’une hypothèse, de ce qui est bien établi de ce qui fait débat.

Evitons les raccourcis

Sortir « une étude » de son contexte et la réduire à ses résultats en occultant la méthode qui a permis de l’obtenir relève au mieux de la négligence, au pire de la désinformation. Extrapoler les résultats de « une étude » en dehors du contexte dans lequel ils ont été établis relève de l’ignorance ou de la prise de position et ne devrait se faire qu’au conditionnel. Pas à l’indicatif. Et toujours en rappelant les éléments de méthodes supportant les résultats.

Qu’il n’y ait pas de méprise. Il est évident que le citoyen n’a pas à se plonger dans la lecture des études en elles-mêmes (pour peu qu’il y ait accès) et qu’il doit pouvoir faire confiance aux journalistes. Mais il est tout aussi important qu’il garde un esprit critique sur ce qu’il lit et qu’il n’oublie jamais deux choses primordiales :

  • La science est écrite par des humains, avec tous les défauts et leurs qualités.
  • Les « études » relayées par les médias et les réseaux sociaux ont fait l’objet de plusieurs digestions et régurgitations par d’autres humains. Plus il y a d’intermédiaires entre les auteurs de « une étude » et les lecteurs, moins la bouillie finale garde les saveurs du produit d’origine.

Ah, oui, et cet article aussi est rédigé par un humain, aussi (im)partial qu’un autre. Faites-en ce que vous voulez.

Source : March 12, 2017  Bastien Castagneyrol : http://theconversation.com/dapres-une-etude-cet-imparable-argument-dautorite-74413

Les incroyables propriétés de la langue de grenouille

Les incroyables propriétés de la langue de grenouille

VOUS avez sûrement déjà vu un documentaire animalier dans lequel une grenouille (ou un crapaud) projette sa langue hors de sa bouche pour attraper une mouche. Si quelque chose vous a épaté, c’est probablement la vitesse et la précision du « tir », mais vous ne vous  êtes pas demandé comment la grenouille faisait pour que sa proie reste collée à sa langue. Sans doute celle-ci est-elle très adhésive, vous êtes-vous dit en oubliant la question annexe : dans ce cas, comment le batracien décolle-t-il l’insecte pour l’avaler ?

Comme le montre une très jolie étude américaine publiée le 1er février dans le Journal of the Royal Society Interface (qui, comme son nom le suggère, traite de sujets à l’interface entre la biologie et la physique), pour réussir sa « pêche à la mouche », la langue de la grenouille doit être dotée de propriétés plutôt hors du commun. Car, ainsi que l’expliquent les auteurs, chercheurs à l’Institut de technologie de Géorgie, même s’il n’a l’air de rien, en réalité rien ne va de soi dans cet acte de prédation.

Pour attraper les insectes, on devine que la grenouille doit aller très vite. Après avoir filmé des batraciens avec une caméra à grande vitesse permettant un ultra-ralenti, les scientifiques se sont aperçus que l’attaque durait 7 centièmes de seconde, soit cinq fois moins de temps qu’il ne vous en faut pour cligner des yeux. Or, écrivent-ils, à cette vitesse-là, aucun produit du commerce n’a le temps d’adhérer à une surface, et encore moins si cette surface présente des textures différentes comme le corps d’un insecte. Si vous essayiez de reproduire l’attaque de la grenouille, vous auriez toute les chances d’envoyer valdinguer l’insecte au loin, comme une raquette fait rebondir une balle.

Ces chercheurs américains ont donc essayé de comprendre quels phénomènes physiques se cachaient derrière cette prouesse. En plus d’analyser des vidéos, ils ont aussi récupéré, auprès du Jardin botanique d’Atlanta, six grenouilles et deux crapauds – tous d’espèces différentes – pour mesurer toutes les caractéristiques physiques de leur langue et de la salive qui la recouvre. Le résultat de leurs travaux est assez sidérant. Si les batraciens parviennent à engluer si vite leurs proies, c’est le résultat de deux phénomènes extrêmes : la très grande mollesse de la langue, dix fois plus élastique que la langue humaine, et un comportement incroyable de la salive.

Une viscosité changeante

Commençons par la texture de la langue. Celle-ci est tellement molle qu’au contact de l’insecte, au lieu de le frapper, elle se déforme – un peu comme l’avant des voitures modernes lors des crash tests –, absorbe le choc et s’enroule autour de la proie. Ce faisant, elle augmente la surface de contact avec l’insecte. Rappelons que tout cela ne dure que quelques centièmes de seconde… Pendant ce temps, que fait la salive déposée à la surface de la langue ? Eh bien elle adopte un comportement des plus étranges, celui d’un fluide dit non-newtonien. Quésaco ? Contrairement à l’eau qui, calme ou agitée, garde une viscosité identique, un fluide non-newtonien voit sa viscosité varier en fonction des contraintes qui sont exercées sur lui. Vous avez peut-être tenté l’expérience de verser un peu d’eau dans de la maïzena. Le mélange obtenu a des propriétés étonnantes : liquide au repos, il se durcit si on appuie dessus, au point qu’on peut même marcher sans couler dans un bassin rempli d’une mixture de ce type.

La salive de grenouille est un liquide non-newtonien doté des propriétés inverses : très visqueuse au repos, elle devient beaucoup plus liquide lorsque des contraintes s’appliquent sur elle. C’est ce qui se produit au moment du choc avec l’insecte : en une fraction de seconde, la salive se fluidifie, ce qui lui permet de se couler dans tous les interstices existant à la surface de la proie. Mais dès que le premier contact est terminé, elle reprend, toujours en une fraction de seconde, sa viscosité initiale. Lorsque la langue se rétracte, l’insecte est complètement englué et même le très rapide mouvement de retour ne permet pas qu’il s’arrache de là. En fait, la salive se comporte exactement comme les peintures modernes, très liquides lorsque le rouleau les étale, mais bien adhésives au support ensuite : elles ne se mettent pas à pleuvoir du plafond ni à couler le long du mur.

On en revient maintenant à la question du début : une fois que la bestiole est dans sa bouche, comment la grenouille s’y prend-elle pour la décoller de sa langue ? Si vous avez suivi le mécanisme, vous aurez trouvé facilement la réponse : il lui suffit d’appliquer de nouveau une contrainte sur sa langue pour que la salive se fluidifie de nouveau. Le plus étonnant est la source de ce frottement : le batracien le produit… avec ses yeux ! Chez la grenouille, l’arrière des globes oculaires donne en effet directement dans la cavité orale. L’animal les rétracte dans sa bouche pour pouvoir exercer une pression sur la langue, décoller l’insecte et le pousser dans sa gorge afin de l’avaler, tout comme une crosse de hockey pousse le palet sur la glace, pour reprendre l’image qu’utilisent les chercheurs dans leur article. Ceux-ci concluent leur étude en expliquant que l’on pourrait copier la langue de la grenouille pour mettre au point des colles réversibles à prise ultra-rapide. Après les pattes de gecko, après le mucus de la patelle, après la bave de l’escargot, voici peut-être venu le temps de la langue de grenouille dans le monde des adhésifs bio-inspirés.

Pierre Barthélémy ( Twitter  Facebook)

Source : Les incroyables propriétés de la langue de grenouille, publié sur le monde, 05/02/2017

Combien y a-t-il de litres d’urine dans une piscine municipale ? La science répond

Des chercheurs ont tenté de vérifier si les piscines municipales contenaient bien des traces d’urine dans l’eau.

Un acte qui fait habituellement tache, mais qui ne se voit pas dans l’eau. Uriner dans une piscine municipale est une pratique antisociale et difficilement acceptable. Pourtant, tout le monde le sait : des nageurs font pipi dans le bassin, même si vous n’êtes pas loin d’eux. Pour en avoir le cœur net, des chercheurs ont tenté de savoir si cette légende était vraie.
Illustration d'enfants, en plein cours de natation.
Après avoir fait des prélèvements dans 31 piscines publiques, réparties dans deux villes canadiennes, la chercheuse Lindsay Blackstock et son équipe ont décelé à chaque reprise la présence d’urine dans l’eau. D'après leurs calculs, environ 75 litres d’urine se trouveraient dans un bassin de taille moyenne (environ un tiers d’une piscine olympique) et 30 litres dans un petit bassin. Le «Guardian», qui relate la nouvelle, précise que 75 litres équivalent à la contenance d’une poubelle de rue.
Si l’étude fait sourire, elle montre bien que les gens ne se gênent pas pour se soulager dans l’eau plutôt que de faire un voyage au petit coin. «Nous voulons utiliser cette étude pour promouvoir l’éducation du public sur les pratiques d’hygiène», a déclaré Lindsay Blackstock, avant de poursuivre : «Nous devrions tous être prévenants envers les autres et nous assurer de quitter la piscine pour utiliser les toilettes lorsque la nature appelle».
Ces résultats ne sont pas étonnants. Dans un sondage anonyme publié en 2012, 19% des adultes (interrogés aux Etats-Unis) avaient déclaré avoir uriné au moins une fois dans leur piscine municipale. Et les nageurs professionnels seraient encore plus sales. L’homme le plus médaillé de l’histoire des Jeux Olympiques Michael Phelps a convenu que c’était un «comportement acceptable». «Je pense que tout le monde pisse dans la piscine. Le chlore l’élimine, donc ce n’est pas mauvais», disait-il peu avant les JO de Londres. Or, on a vu plus haut que l’urine avait sa place dans les bassins traités. Les chercheurs préviennent que sur le long terme, l’urine pourrait provoquer de l’asthme et des irritations respiratoires quand elle était mélangée avec certains désinfectants.A l’avenir, ils suggèrent alors d’utiliser leur méthode d’analyse pour tester les bassins. Contrairement aux idées reçues, il n’existe pas de produits qui changeraient la couleur de l’eau à l'encontre d'un pipi soudain.

 

Source : Combien y a-t-il de litres d’urine dans une piscine municipale ? La science répond

Sur les sciences et le progrès dans la République

ASSEMBLÉE NATIONALE, CONSTITUTION DU 4 OCTOBRE 1958, QUATORZIÈME LÉGISLATURE, le 26 janvier 2017.

Mesdames, Messieurs,

« La République n’a pas besoin de savants ! » telles sont les paroles attribuées au président du Tribunal Révolutionnaire au moment de la condamnation à mort du chimiste Lavoisier en 1794 après la suppression de l’Académie des sciences par la Convention. « Et pourtant elle tourne ! » aurait dit Galilée après le procès qui lui a été fait après sa présentation de la théorie de la rotation de la terre. « Les partisans de Mendel sont les ennemis du peuple soviétique » disait Lyssenko, qui obtenait de Staline et de Khrouchtchev la condamnation de la génétique classique et la fermeture de laboratoires et le licenciement de chercheurs dans l’ex-URSS.

Si de nos jours, cette forme d’obscurantisme semble dépassée (alors que les créationnistes contestent aujourd’hui le Big Bang et la théorie de l’évolution), nous devons malheureusement affronter un climat de défiance croissant vis-à-vis des institutions scientifiques et des savants qui, pourtant, constituent un pilier fort de notre République

Le développement de la modernité industrielle s’est accompagné de progrès fulgurants et d’une liberté de création avec l’émergence de grands inventeurs (Lavoisier, Faraday, Edison, Darwin, Pasteur, Poincaré, Marie Curie, Einstein, Pauling, Planck, Schrödinger, De Gennes, Charpak….et même Steve Jobs). Pourtant, la place de la démarche et de la culture scientifique est aujourd’hui en net recul dans notre pays et dans notre République.

Tout en favorisant l’accès à la culture, la numérisation en cours de nos sociétés et l’usage d’internet amplifient la dérégulation du marché de l’information scientifique, faisant place à la diffusion de croyances les plus dangereuses, si bien que les pouvoirs publics et nos concitoyens peinent à hiérarchiser les éléments nécessaires à la prise de décision en matière de choix scientifiques et techniques. Cette évolution inquiétante prend sa source dans la confusion de plus en plus marquée entre ce qui relève des savoirs issus d’une démarche scientifique rigoureuse et ce qui relève de croyances ou de désinformation. Elle se traduit par une remise en cause croissante de la valeur culturelle et de l’impact social du travail scientifique.

Par la confusion entretenue entre savoir et opinion dans les espaces publics et numériques, la défiance qui en résulte menace l’activité et les fondements de la recherche scientifique. La prolifération d’informations tronquées ou inexactes, comme de théories complotistes, génère des inquiétudes, de l’endoctrinement et alimente les parcours de radicalisation. Cela se traduit par une fragilisation du socle des valeurs républicaines. Ainsi, la rationalité et l’objectivité, héritages de la philosophie des Lumières, s’opposent-elles désormais au relativisme, une idéologie qui conteste l’idée même de progrès et impose ses vues à force d’amalgames, d’anathèmes voire d’actions violentes. Au-delà, c’est l’existence même de la démocratie qui est menacée si nos scientifiques et nos ingénieurs ne peuvent s’exprimer et être écoutés dans leur rôle d’expertise au prétexte que leurs avis ne constituent que des opinions parmi d’autres.

Dans tous les débats importants de ces dernières années, notamment sur les biotechnologies, la politique vaccinale, les radiofréquences ou l’énergie, les gouvernements qui se sont succédé depuis plus de vingt ans ont trop souvent reculé ou démissionné. Ainsi, les discussions autour de la régulation des nanotechnologies organisées par la Commission nationale du débat public en 2009-2010, ou encore celles sur le stockage de déchets nucléaires à Bure-Saudron ont-elles été perturbées et finalement empêchées. De tels renoncements sont hélas nombreux.

Cette confusion est accrue par l’amalgame entre la science et ses applications. Assurément, les découvertes scientifiques peuvent générer des technologies qui, à côté de bénéfices indéniables, peuvent présenter des effets dangereux et il ne s’agit en aucune façon de verser dans un scientisme béat, ou dans une croyance aveugle à l’innocuité des technologies. Les risques ne doivent pas être balayés d’un revers de la main, mais plutôt évalués rationnellement, en tenant à distance les croyances, les partis-pris idéologiques et les discours sectaires car, comme le disait fort justement le mathématicien philosophe, prix Nobel de littérature Bertrand Russell : « La science n’a jamais tout à fait raison, mais elle a rarement tout à fait tort, et, en général, elle a plus de chance d’avoir raison que les théories non scientifiques. Il est donc rationnel de l’accepter à titre d’hypothèse. » En particulier, les actions destinées à empêcher la réalisation d’études d’impact et d’évaluation des risques doivent être dénoncées comme contraires au bien public et fortement sanctionnées.

La culture scientifique est en recul dans les médias où, trop souvent, des raisonnements simplistes, constituant avant tout des coups de communication et ne respectant pas les règles éthiques, sont présentés comme des informations incontestables, lesquelles sont souvent démultipliées par les réseaux sociaux.

La pratique de la méthode scientifique est en recul dans nos écoles, comme l’apprentissage des sciences qui contribue pourtant à la formation des futurs citoyens.

La démarche scientifique régresse enfin dans les assemblées et les ministères, là même où se prennent des décisions non suffisamment fondées engageant l’avenir de notre pays et de nos compatriotes. Des responsables politiques n’hésitent pas à contredire des avis ou des recommandations émis par des comités scientifiques et des agences créés par l’État ou par l’Union européenne pour les éclairer dans leurs décisions.

Depuis des décennies, les crédits budgétaires en faveur de la recherche ont trop souvent été rognés.

La parole scientifique doit retrouver toute sa place au cœur des grands débats de notre démocratie, dans les enceintes parlementaires comme dans les ministères. En leur temps, des hommes d’État comme Pierre Mendès France, le général de Gaulle ou François Mitterrand avaient élevé la recherche scientifique et ses applications au rang de priorité nationale. Ce n’est plus suffisamment le cas aujourd’hui et c’est la nature même du progrès qui est remise en cause. Celui-ci doit bien sûr être maîtrisé et partagé mais la République doit avoir foi dans le progrès scientifique, qui a été et reste le principal facteur de progrès économique, sanitaire, social et environnemental.

Plus que jamais, la République a besoin de savants.

PROPOSITION DE RÉSOLUTION

Article unique

L’Assemblée nationale,

Vu l’article 34-1 de la Constitution,

Vu l’article 136 du Règlement de l’Assemblée nationale,

Considérant que la France, héritière d’une longue tradition scientifique, rationaliste et de la philosophie des Lumières, a toujours incarné le progrès et la science au service de l’humanité ;

Considérant, comme le souligne le rapport « L’avenir de la consultation scientifique pour les Nations Unies » publié par l’UNESCO le 18 septembre 2016 que : « Les sciences, la technologie et l’innovation ont la capacité de changer la donne pour relever pratiquement tous les défis mondiaux les plus urgents. » ;

Considérant que les discours partisans voire sectaires fondés sur une défiance croissante vis-à-vis de l’expertise scientifique constituent une grave remise en cause de cet esprit des Lumières en s’attaquant aux règles mêmes sur lesquelles repose l’institutionnalisation de toute science ;

Considérant que la confusion entre les connaissances et les opinions constitue une sérieuse menace pour le bon fonctionnement de notre démocratie en alimentant les processus sectaires et diverses formes de radicalisation ;

Considérant que la culture scientifique est à la base de toute recherche de connaissance vraie et que, par ce fait même, son respect est la condition indispensable à l’élaboration de politiques scientifiques cohérentes ;

Considérant que la recherche scientifique et technologique constitue un élément indispensable à la compétitivité de la France au niveau européen et même mondial ;

Considérant que la culture scientifique est le ferment indispensable pour des citoyens éclairés et responsables ;

Considérant que la démocratisation de l’accès aux savoirs scientifiques constitue un progrès social essentiel et génère des défis stimulants en matière de politiques culturelle et éducative ;

Considérant que l’enseignement des sciences, depuis l’école élémentaire jusqu’aux études supérieures, représente un enjeu considérable pour notre pays ;

Considérant qu’il revient aux chaînes de télévision et de radio du service public de l’audiovisuel de donner une place éminente aux émissions d’information et de transmission des connaissances scientifiques et des progrès technologiques ;

Considérant que l’expertise scientifique n’est plus assez prise en compte dans les processus de la décision politique ;

Considérant que les gouvernements successifs, depuis des décennies, n’ont pas su consacrer l’effort budgétaire indispensable dans le domaine de la recherche et du développement contrairement à d’autres pays voisins ;

Considérant que nos universités, nos écoles et nos organismes de recherche accomplissent un travail dédié à la défense et à la diffusion de la culture scientifique ;

Considérant que l’étude des sciences, de la philosophie et de l’épistémologie, et plus généralement des sciences humaines et sociales, joue un rôle éminent dans la construction de la culture scientifique ;

Considérant qu’en se dotant d’un Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST), l’Assemblée nationale et le Sénat ont souhaité que l’action et les décisions du Parlement puissent être éclairées sur les conséquences des choix à caractère scientifique et technologique ;

L’Assemblée nationale :

1° Souhaite rappeler que la science, comme n’a cessé de le mentionner l’OPECST dans ses études touchant à la culture scientifique et technique, est un vecteur essentiel de l’innovation, dimension centrale du développement de l’économie et de l’emploi dans les sociétés développées contemporaines ; qu’elle constitue également un bien commun, comme le souligne un rapport de l’UNESCO, en ouvrant les perspectives culturelles des citoyens à la recherche d’une meilleure compréhension du monde.

2° Suggère que l’initiation aux sciences à l’école élémentaire soit considérablement renforcée pour davantage sensibiliser les jeunes élèves à la démarche scientifique.

3° Invite le Gouvernement à veiller à la qualité des enseignements scientifiques dispensés au collège et au lycée. De fait, les évolutions récentes apparaissent alarmantes.

4° Souhaite, ainsi que le préconisent l’Académie des sciences, l’Académie des technologies et l’Académie des sciences morales et politiques, que le Gouvernement encourage une plus grande interaction entre enseignements en sciences technologiques et sciences humaines dès les classes de lycée, ainsi que dans la suite de tous les cursus scientifiques et inversement.

5° Invite en particulier le Gouvernement à étoffer la partie du programme de philosophie consacrée aux sciences et à l’épistémologie au lycée et dans l’enseignement supérieur. En l’état, seuls les élèves de la filière littéraire abordent les chapitres consacrés au vivant, à la théorie et l’expérience. De tels développements seraient profitables à tous et plus particulièrement aux élèves des filières scientifiques qui pourraient acquérir davantage de connaissances épistémologiques sur les pratiques scientifiques et sur les rapports science-société.

6° Souhaite que les travaux et les recommandations des académies soient davantage suivis, tant dans les domaines de l’enseignement que dans ceux de la décision politique et que celles-ci devraient avoir pour mission d’émettre des avis sur les propositions du Gouvernement en matière scientifique et technologique.

7° Invite le Gouvernement français à mettre en avant des stratégies de communication et de débats avec les citoyens adaptés à l’évaluation et à la gestion des risques technologiques. L’enjeu principal de l’expertise scientifique et technique consiste à fournir une évaluation en amont de la prise de décision politique. Il convient donc de développer des procédures d’examen propres à éclairer les débats sociétaux. Il convient également d’établir une distinction claire entre les éventuels dangers intrinsèques dus à une technologie donnée et les risques inhérents à son utilisation. Ces procédures d’examen doivent établir une balance bénéfices/risques (socio-économiques, sanitaires et environnementaux) liée autant à l’adoption d’une technologie que, le cas échéant, au renoncement à celle-ci.

8° Souhaite que les chaînes de télévision et les stations de radio du service public renforcent l’offre d’émissions scientifiques, en particulier aux heures de plus grande écoute et s’efforcent d’en faire de véritables espaces de savoir, en veillant notamment à y donner la parole aux membres de la communauté scientifique.

9° Invite le Gouvernement à réfléchir à des pratiques pédagogiques fondées sur l’usage raisonné des technologies numériques, en particulier à l’apprentissage du tri de l’information qui faciliterait la distinction entre des savoirs établis et des opinions sans fondement scientifique.

10° Invite le Gouvernement à donner plus d’importance aux études et rapports de l’OPECST dans l’élaboration et le suivi des politiques qui impliquent la science ou ses applications. Cela devrait se traduire, en particulier, par un renforcement de sa responsabilité dans l’organisation du travail parlementaire et dans le développement d’une politique culturelle attentive aux grands enjeux de la science contemporaine, via notamment un avis formel de l’OPESCT joint aux textes présentés et l’élargissement de ses missions à des études d’impact préalables pour tout projet ou proposition de loi impliquant des choix à caractère scientifique ou technologique.


ASSEMBLÉE NATIONALE

CONSTITUTION DU 4 OCTOBRE 1958

QUATORZIÈME LÉGISLATURE

Enregistré à la Présidence de l’Assemblée nationale le 26 janvier 2017.

http://www2.assemblee-nationale.fr/documents/notice/14/propositions/pion4421/(index)/depots

PCAST Releases Report on Forensic Science in Criminal Courts 

Forensic science has become a mainstay of many a TV drama, and it’s just as important in real-life criminal trials. Drawing on biology, chemistry, genetics, medicine and psychology, forensic evidence helps answer questions in the legal system. Often, forensics provides the “smoking gun” that links a perpetrator to the crime and ultimately puts the bad guy in jail.

Shows like “CSI,” “Forensic Files” and “NCIS” cause viewers to be more accepting of forensic evidence. As it’s risen to ubiquitous celebrity status, forensic science has become shrouded in a cloak of infallibility and certainty in the public’s imagination. It seems to provide definitive answers. Forensics feels scientific and impartial as a courtroom weighs a defendant’s possible guilt – looking for proof beyond a reasonable doubt.

But the faith the public and the criminal justice system place in forensic science far outpaces the amount of trust it deserves.

For decades, there have been concerns about how the legal system uses forensic science. A groundbreaking 2009 report from the National Academy of Sciences finally drew the curtain back to reveal that the wizardry of forensics was more art than science. The report assessed forensic science’s methods and developed recommendations to increase validity and reliability among many of its disciplines.

These became the catalyst that finally forced the federal government to devote serious resources and dollars to an effort to more firmly ground forensic disciplines in science. After that, governmental agencies, forensic science committees and even the Department of Defense responded to the call. Research to this end now receives approximately US$13.4 million per year, but the money may not be enough to prevent bad science from finding its way into courtrooms.

This fall, the President’s Council of Advisors on Science and Technology (PCAST) released its own report on forensic science. It’s a more pronounced acknowledgment that the discipline has serious problems that require urgent attention. Some scientific and legal groups are outraged by or doubtful of its conclusions; others have praised them.

As someone who has taught forensic evidence for a decade and dedicated my legal career to working on cases involving forensic science (both good and bad), I read the report as a call to address foundational issues within forensic disciplines and add oversight to the way forensic science is ultimately employed by the end user: the criminal justice system.

Is any forensic science valid?

The President’s Council of Advisors on Science and Technology recognized ongoing efforts to improve forensic science in the wake of the 2009 NAS report. Those efforts focused on policy, best practices and research around forensic science, but, as with any huge undertaking, there were gaps. As PCAST noted, forensic science has a validity problem that is in desperate need of attention.

PCAST focused on what’s colloquially termed “pattern identification evidence” – it requires an examiner to visually compare a crime scene sample to a known sample. PCAST’s big question: Are DNA analysis, bite marks, latent fingerprints, firearms identification and footwear analysis supported by reproducible research, and thus, reliable evidence?

What does a firing pin indentation on a bullet really tell us? Macroscopic Solutions, CC BY-NC

They were looking for two types of validity. According to PCAST, foundational validity means the forensic discipline is based on research and studies that are “repeatable, reproducible, and accurate,” and therefore reliable. The next step is applied validity, meaning the method is “reliably applied in practice.” In other words, for a forensic discipline to produce valid evidence for use in court, there must be (1) reproducible studies on its accuracy and (2) a method used by examiners that is reproducible and accurate.

Among the forensic science they assessed, PCAST found single-sourced DNA analysis to be the only discipline that was valid, both foundationally and as applied. They found DNA mixture evidence – when DNA from more than one person is in a sample, for instance from the victim and the perpetrator, multiple perpetrators or due to contamination – to be only foundationally valid. Same with fingerprint analysis.

Firearms identification had just the potential for foundational validity, but the research that could support it hasn’t been done yet. Footwear analysis lacked studies even showing potential for foundational validity. And bite mark analysis has a low chance of achieving any validity; the PCAST report advised “against devoting significant resources” to it.

All these types of evidence are widely used in thousands of trials each year. Many additional cases never even go to trial because this supposedly definitive evidence seems damning and compels defendants to plead guilty. But the lack of reliable science supporting these disciplines undermines the evidence which, in turn, undermines criminal convictions.

Risks of lacking validity

When forensic methods are not validated but nevertheless perceived as reliable, wrongful convictions happen.

For example, the field of forensic odontology presumes that everyone has a unique bite mark. But there’s no scientific basis for this assumption. A 2010 study of bite marks from known biters showed that skin deformations distort bite marks so severely that current methods of analysis could not accurately include or exclude a person based on the pattern left by their teeth.

In 1986, Bennie Starks was convicted of rape and other crimes after forensic odontology experts testified he was the source of a bite mark on the victim. In 2006, DNA test results showed Starks could not have been the perpetrator. Starks spent 20 years in prison for a crime he did not commit because of faulty evidence from an unreliable discipline. More recently, the Texas Forensic Science Commission recommended a flat-out ban on bite mark evidence.

What happens if the forensic evidence that convicted you is flimsy? West Midlands Police, CC BY-SA

Like in Starks’ case, questionable forensic evidence plays a significant role in at least half of overturned convictions, according to the Innocence Project. Once a verdict comes in, it becomes a Sisyphean task to undo it – even if newly discovered evidence undermines the original conviction. It’s next to impossible for people once convicted to get their cases reconsidered.

At the moment, only two states (Texas and California) permit a defendant to appeal a conviction if the scientific evidence or the expert who testified is later discredited. More laws like these are needed, but it’s politically a hard sell to grant more rights and avenues of appeal to convicts. So even if the science is undermined or completely discredited, a prisoner is often at the mercy of a court as it decides whether to grant or deny an appeal.

What should be admissible?

The PCAST report recommended judges consider both the foundational and applied validity of the forensic discipline that produced any evidence before admitting expert testimony. This includes ensuring experts testify to the limitations of the analysis and evidence. For example, the justice system traditionally considers fingerprint evidence as an “identification” – for instance, the thumbprint recovered from the crime scene was made by the defendant’s thumb. No one ever testifies that there are little scientific data establishing that fingerprints are unique to individuals. The same holds true for other types of pattern identification evidence such as firearms, toolmarks and tire treads.

The National District Attorneys Association (NDAA) was critical of the PCAST report. It countered that there actually is scientific data validating these forensic fields, but members of PCAST did not adequately consult subject-matter experts. The NDAA also worried that if courts required stronger scientific validity before allowing evidence into court, it would hamstring the entire investigative process.

The NDAA concluded that judges should continue to be the ones who decide what makes evidence reliable and thus admissible. It asserted that the stringent requirements to become expert witnesses, along with the ability to cross-examine them in court, are enough to guarantee reliable and admissible evidence.

But should the admissibility of scientific processes – which ought to be grounded in their proven ability to produce reliable evidence – be determined by people who lack scientific backgrounds? I would argue no.

Pattern identification evidence shouldn’t be excluded from cases wholesale, but forensic evidence needs to be placed into context. When the human eye is the primary instrument of analysis, the court, the attorneys and the jury should be fully aware that certainty is unattainable, human error is possible, and subjectivity is inherent.

Reliance upon the adversary system to prevent wrongful convictions and weed out junk science requires a leap of faith that ultimately undermines the integrity of the criminal justice system. Counting on cross-examination as an effective substitute for scientific rigor and research can’t be the answer (although it has been for more than a century).

The PCAST report is yet another wake-up call for the criminal justice system to correct the shortcomings of forensic science. We demand that guilt be proven beyond a reasonable doubt; we should also demand accurate and reliable forensics. Without improvement, we can’t trust forensic science to promote justice.

Source : PCAST Releases Report on Forensic Science in Criminal Courts | whitehouse.gov

La méthode des «Experts», science ou sorcellerie?

La méthode des «Experts», science ou sorcellerie?

Une commission de savants américains a rendu un rapport accablant sur les méthodes de la police scientifique et de la médecine légale. Qu’en disent les spécialistes romands?

La science forensique, ce cocktail imparable d’ADN, de cadavres disséqués et de traces de semelles qui se déploie triomphalement dans des séries TV telles que Les Experts, ne serait-elle finalement pas si scientifique que ça? C’est ce que qu’avance un rapport rendu en septembre aux Etats-Unis par les savants rassemblés au sein du Conseil du Président sur la science et la technologie (PCAST).

Exemples? L’analyse des empreintes digitales serait «une méthode purement subjective» dont les tribunaux sous-estimeraient la marge d’erreur, influencés par la «prétention d’infaillibilité» collant à cette technique. L’examen d’une morsure, censée correspondre de façon unique à la dentition qui l’a infligée, ne permettrait pas d’identifier un individu avec une «exactitude raisonnable».

L’étude des rayures laissées par une arme sur une balle a la réputation d’être une méthode d’une «précision presque absolue», mais «sa validité fondamentale n’a pas été établie»… La science forensique s’apparenterait ainsi à un «art», voire à une «sorcellerie», plus qu’à une véritable science, résume Jessica Gabel Cino, membre du Bureau des normes de l’Académie américaine des sciences forensiques, dans un article du site The Conversation.

«Une problématique spécifique aux Etats-Unis»

«C’est une problématique spécifique aux Etats-Unis, où le système est très différent du nôtre: il produit des avis tranchés, en noir et blanc, sans nuances de gris. Vous n’entendrez jamais un expert américain dire: on ne peut pas répondre. Chez nous, c’est régulièrement le cas», commente Silke Grabherr, directrice du Centre universitaire romand de médecine légale. «En Suisse, le procureur nomme des experts lors de l’enquête, avec un mandat qui est à la fois à charge et à décharge de la personne mise en cause. Dans le système juridique américain, les experts sont mandatés – et instrumentalisés – par les parties. Ce qui n’est pas bon pour une saine administration d’éléments scientifiques», ajoute Christophe Champod, professeur à l’Ecole des sciences criminelles de l’Université de Lausanne.

Empreintes et scanners mortuaires

La subjectivité des experts est en point de mire du rapport du PCAST. «En réalité, elle est toujours présente, rétorque Silke Grabherr. Une autopsie est quelque chose de subjectif: le résultat dépend de la personne qui la fait. En Suisse, on en est conscient. C’est une des raisons pour lesquelles, en médecine légale, un expert ne travaille jamais en solo: on est toujours rattaché à un institut et on est au moins deux pour chaque affaire. On sauvegarde la documentation et on rediscute les résultats en équipe.» La documentation inclut aujourd’hui l’imagerie médicale post-mortem, une spécialité de l’institut et de sa directrice. «Lorsqu’on fait une autopsie, on peut examiner correctement le corps une seule fois. Impossible de répéter l’opération, car les organes se retrouvent coupés. Un scan, c’est-à-dire un enregistrement numérique de l’extérieur et de l’intérieur du corps, peut en revanche être vu et revu par plusieurs spécialistes. Bien sûr, un rapport rendu sur la base de l’imagerie peut être tout aussi faux qu’une autopsie mal faite. Mais l’erreur est récupérable, car les données restent disponibles.»

À la quête d’une certitude fantasmatique, les experts romands préfèrent l’exploration consciente du champ des probabilités. «Prenez la dactyloscopie, l’analyse des empreintes digitales. Il y a une manière d’en présenter les résultats qui laisse entendre qu’il s’agit là d’un absolu. En ce qui me concerne, je m’évertue depuis des années à enseigner, tant aux étudiants qu’aux magistrats, que l’association entre une empreinte et une personne n’est pas une certitude, mais qu’elle s’entoure de probabilités. On connaît d’ailleurs un certain nombre d’affaires où il y a eu de fausses associations», reprend Christophe Champod.

Du pif aux mathématiques

Comment gérer cette incertitude? «Quand j’ai commencé dans la police scientifique, il y a 25 ans, on travaillait au pif et on donnait notre avis: c’est lui, ce n’est pas lui… Le risque d’erreur était immensément plus grand. Aujourd’hui, on a adopté une approche mathématique de l’évaluation des indices et on a mis au point une échelle verbale qu’on est en train d’introduire dans tous les services romands», répond Olivier Guéniat, chef de la police judiciaire neuchâteloise et responsable de l’harmonisation en cours des procédures de police scientifique en Suisse romande.

Exemple: «On a une analyse d’ADN qui met en cause telle personne dans telle affaire. On dira que la correspondance génétique entre l’individu et la trace trouvée sur les lieux soutient extrêmement fortement l’hypothèse que c’était lui, plutôt qu’une personne inconnue, qui était la source de cette trace. L’expression extrêmement fortement signifie que, connaissant la répartition statistique des marqueurs génétiques dans la population, il est plus d’un milliard de fois plus probable que l’individu en question en soit la source, plutôt qu’un inconnu. Ce n’est pas du 100%: la certitude n’existe pas. Il s’agit dès lors d’adopter une philosophie d’honnêteté pour évaluer dans quelle mesure un indice a une valeur probante.»

En Suisse, une formation de haut niveau

Le rapport du PCAST suggère de confier un nombre croissant d’examens à des algorithmes. Les experts romands préfèrent, eux, continuer à tabler sur une formation de haut niveau. «En Suisse, il faut six ans de formation pour devenir médecin légiste, relève Silke Grabherr. Ailleurs, en général, on se forme sur le tas en passant un ou deux ans, à la sortie de l’université, dans un centre qui pratique des autopsies… Les meilleures compétences mondiales en la matière se trouvent dans les pays germanophones, Suisse, Allemagne et Autriche. La France s’apprête à adopter le modèle suisse à partir de 2017. En Allemagne, des coupes budgétaires ont quelque peu fait baisser la qualité des services, mais on est en train de relancer un plan de formation, en reprenant plusieurs points du programme suisse.»

Christophe Champod, qui a été auditionné par le PCAST pendant l’élaboration du rapport, sera, lui, à Washington en janvier pour présenter à la National Commission on Forensic Science «une vision suisse sur d’autres manières de concevoir la police scientifique». La façon de produire un témoignage d’expert aux USA, telle qu’elle se donne à voir dans la série TV documentaire Making a Murderer, est à ses yeux «terrifiante: j’utilise la série avec mes étudiants pour leur montrer tout ce qu’il ne faut pas faire».

Expertise à vendre

Que conclure? «La question ne se poserait pas en ces termes aux Etats-Unis si en amont, il n’y avait pas toutes ces erreurs judiciaires, souvent dues à de pseudo-experts qui ne disposent pas du background nécessaire pour être fiables, et à un système juridique où on peut littéralement acheter les experts et leurs conclusions», analyse Olivier Guéniat. Entre-temps, les sciences forensiques doivent résister à d’autres assauts.

«Il y a çà et là des études qui continuent à être menées, prétendant qu’on peut lire le caractère criminel d’une personne sur les traits de son visage: telle épaisseur des sourcils, telle forme des lèvres… C’est de la science morte, qui prend des corrélations pour des causalités. Or, passer d’une corrélation à une causalité relève du raisonnement, ce ne sont pas des mathématiques. La justice humaine doit continuer à faire appel à l’intelligence, à la réflexion, à la contextualisation. Et au raisonnement qui exploite les zones grises.»

Source : La méthode des «Experts», science ou sorcellerie? - Le Temps

Les mathématiques du café-filtre 

Les secrets mathématiques d'un bon café filtre

Comment tirer le maximum des grains de café ? S'il reste utile de demander leur avis aux meilleurs baristas du monde, la réponse viendra peut-être de la science.

Ceci est une tasse de café

Le saviez-vous ? Votre tasse de café ne comprend pas moins de 1800 composés chimiques différents.

CAFÉ FILTRE. Grand mère n'est pas la seule à savoir faire du bon café : les mathématiques aussi ont leur mot à dire. Cafetières à filtre, à piston, ou encore machines à expresso... ce ne sont pas les moyens qui manquent pour se concocter un petit noir. Mais comment optimiser des facteurs comme les dimensions et la forme de la cafetière à filtre, la température de l'eau, ou encore l'aération du café afin de doser au plus subtil la concentration en café du brevage ?

En fait, le tirage du café s'assimile à une extraction solide-liquide, procédé qu'on sait modéliser en termes mathématiques... Et c'est là que l'irlandais Kevin Moroney et son équipe entrent en jeu. Leur dernière publication, parue dans le SIAM Journal on Applied Mathematics, présente un modèle multiscalaire (c'est à dire valide à petite comme à large échelle) capable de décrire assez finement l'extraction du café à travers son filtre... et ce en prenant en compte tous les paramètres utiles, y compris la taille des grains de café et leur porosité, c'est dire le niveau de précision.

À haute pression dans un percolateur à expresso ou à pression atmosphérique dans un simple entonnoir à café filtre, servir un café repose sur les mêmes bases chimiques que l'extraction solide-liquide.  © K. Moroney et al.

Des modèles forts de café

"La plupart des modèles mathématiques décrivant l'extraction du café sont simplifiés, car ils considèrent que celle-ci se produit dans un système homogène", explique Kevin Moroney, auteur principal. Une approximation qui est peut-être valide pour les très grandes cuves dans lesquelles on brasse le café avant de le transformer en café lyophilisé, mais pas pour les appareils individuels. "Notre modèle, même s'il opère aussi certaines approximations, s'intéresse à la vitesse d'extraction en la décrivant à partir des caractéristiques des grains de café, et notamment leur porosité. De quoi prédire l'efficacité d'une cafetière à partir des caractéristiques des grains de café, de la température de l'eau et du type d'équipement utilisé", poursuit-il.

L'idée d'une équipe de mathématiciens mettant le café en équations peut prêter à sourire, en particulier lors de la pause café. Mais contrairement aux apparences il s'agit d'un enjeu sérieux pour les fabricants, l'un des auteurs travaillant notamment pour Philips Research. "Les mécanismes relatifs aux machines à expresso et aux cafetières industrielles ont été bien étudiés, mais les mathématiques appliquées s'étaient jusque là peu penchées sur les cafetières à filtre, qui représentent pourtant 55 % des machines à café vendues en Europe", justifie encore Kevin Moroney. Et si demain, les cafetières à filtre individuelles devenaient intelligentes, et capable de concocter la tasse idéale, celle la plus adaptée à votre goût ? Nespresso n'a qu'a bien se tenir.

Testing the “Stick-on-the-wall Spaghetti rule”

Testing the “Stick-on-the-wall Spaghetti rule”

Testing the “Stick-on-the-wall Spaghetti rule”

by Simone Montangero and Francesca Vittone and Institute for Complex Quantum Systems, Ulm University Ulm, Germany

There is always a moment when Italians abroad come across a local who explains to them a simple way of knowing how to cook Spaghetti “al dente”: throw them to the wall, if they stick they are ready to be eaten. After the first shock, they typically realize that this rule is worldwide known, while it is completely unknown in Italy where pasta is simply tasted. Being scientists we aim to test this rule to be able to refuse or accept it on solid ground. Moreover, we use this occasion to approach another common problem of scientists, that is, to explain to their young children what their parents do at work: we enrolled a class of preschoolers and show them how to experimentally test a belief with scientific rigor. We hope also to contribute to reduce the frustration of other scientists when their kids ask them about their jobs: long explanations typically result in a frustrated kid going away mumbling something about firemen or bus drivers…

fig1a

Figure 1: Typical results of the experiment, with stuck spaghetti highlighted in green, failures in red.

Experiment. We test the Stick On the Wall Spaghetti (SOWS) rule with a box of standard Spaghetti “Barilla”, official cooking time 9 minutes as reported on the box. The Spaghetti are cooked for 3, 6, and 9 minutes, and then are thrown against three different kind of walls: a kitchen wall (KW), a window (F), and a whiteboard (T). We have a team of 13 throwers, preschool kids of ages between 5 and 7 years. Each thrower throws one spaghetti for each different cooking time and wall kind, for a total of 13x3x3=107 launches, which are subsequently recorded as successfully stuck or not. Figure 1, reports a typical experimental result together with typical experimental conditions. The collected raw data are reported in Figure 2, for different cooking times and wall types.

fig2

Figure 2: Histogram of the experiments results (0 means failure to, 1 success), for the three different wall types (from left to right: window, kitchen and whiteboard), different cooking times (3, 6, and 9 minutes: violet, blue and green).

The statistical analysis of the experimental data acquisition is presented in Figure 3 where we report the average probability to stick (ratio between the number of stuck spaghetti and the total number of thrown ones) as a function of the cooking time for the three different walls. As expected, in all scenarios the probability to stick (mostly) increases with time. We interpret this as a signal that no major failure occurred in our experimental test. More interesting, after 9 minutes the probability to stick is compatible to 100% within the statistical error in the three cases (in the whiteboard case it is almost exactly one) strongly supporting the SOWS rule. However, the probabilities to stick are of about 50% in all other scenarios (slightly above at six minutes, more spread at three minutes but in all cases with a big standard deviation of about 30%). This implies that a cooker with a simple test with one single spaghetti thrown to the wall cannot acquire any information: in case it sticks the cooker cannot distinguish between any of the cooking time.

fig3

Figure 3: Average probability to stick as a function of time for different wall types: Kitchen (blue), Window (green), Whiteboard (Yellow). Standard deviation is of the order of 0.5 for times 3 and 6 minutes, while it drops to about 0.3 in the first two cases and to 0 in the Whiteboard one.

Discussion. A special care has to be paid to the scenario with the whiteboard as it displays an unexpected non-monotonic result: the probability to stick decreases between 3 and 6 minutes. To investigate such behavior and be sure we are not introducing some unwanted bias in our investigation, we analyzed the average probability of success and standard deviation of each thrower, as reported in Figure 4. As it can be seen, these two quantities are homogenous among all throwers but one (our youngest brave thrower), who has almost 100% probability of success. Assuming that this is not a statistical fluctuation but a bias for which data shall be corrected for, almost cures the non-monotonic behavior of the whiteboard data. However, it does not change the overall conclusions of our work, and thus we consider this a strong signal that our data acquisition is bias free.

fig4a

Figure 4: Average probability (blue) standard deviation (green) for all launches of each thrower.

Conclusions. In conclusion, the SOWS rule shall be refused in any “reasonable” kitchen or restaurant unless a huge amount of spaghetti is wasted in statistical tests. It is indeed more efficient to rely on the cooking time reported on the box. An alternative possibility to avoid waste is that the spaghettis are eaten after being stuck on the wall or fallen onto the floor as we have experienced in our experiment! We stress that this is a clear example where the “common knowledge” shall be carefully used and thus we urge the reader never to believe simple truths even if widespread accepted. We think that our study demonstrated once more the importance of the scientific method, which can be used to improve all important steps of our life starting from a good spaghetti meal.

Acknowledgments. This work has been part of a program for preschooler kids to explain how their parents spend time at work (but not always throwing spaghetti!) and to introduce them to the scientific method. We thank the teachers and the throwers of the preschool class of the kindergarden for their dedication, passion and throwing precision.

Pourquoi les incompétents se croient si doués ? (effet Dunning-Kruger) 

Pourquoi les incompétents se croient si doués

Un jour de 1995, McArthur Wheeler dévalisa deux banques de Pittsburgh (Pennsylvanie) à visage découvert. Même pas peur. Le soir même, peu de temps après que les images prises par les caméras de surveillance eurent été diffusées au journal télévisé de 23 heures, l'homme fut assez logiquement reconnu, dénoncé, arrêté. Quand la police lui montra les enregistrements, Wheeler le voleur fut frappé de stupéfaction. « Pourtant, je portais du jus », marmonna-t-il. Apparemment, celui qui se croyait si malin s'était persuadé que le jus de citron, bien pratique pour fabriquer de l'encre invisible, allait aussi rendre son visage indétectable par la vidéosurveillance et s'en était barbouillé la trogne.

Si David Dunning et Justin Kruger, deux psychologues américains de l'université Cornell, ont évoqué la mésaventure de Mister Wheeler en préambule de l'étude qu'ils ont publiée en 1999 dans le Journal of Personality and Social Psychology, ce n'est pas parce qu'ils avaient l'intention d'y vérifier les qualités du jus de citron, mais parce qu'ils souhaitaient comprendre pourquoi les personnes incompétentes – comme l'était ce maladroit détrousseur de banques digne d'un roman de Donald Westlake – peuvent avoir l'impression que leurs mauvaises décisions sont excellentes. Pourquoi « l'ignorance engendre plus souvent la confiance que ne le fait la connaissance », pour reprendre un célèbre constat du grand observateur de ses congénères qu'était Charles Darwin.

Disons-le d'emblée, la réponse à cette question n'est pas à chercher du côté de l'intelligence – songez à votre supérieur hiérarchique et à certains chefs d’État, que vous considériez comme des non-crétins tant qu'ils n'avaient pas atteint leur seuil d'incompétence. David Dunning et Justin Kruger ont émis l'hypothèse que, chez les incompétents, existait un biais psychologique qui les poussait à surestimer leurs capacités et leurs performances. Pour mettre cette idée à l'épreuve, ils ont élaboré une batterie d'expériences destinées à tester des « cobayes » dans des domaines nécessitant un minimum de savoir et de finesse : l'humour (avec des blagues notées par des comédiens professionnels), le raisonnement logique et la grammaire.

A chaque fois, les participants devaient faire un exercice et auto-évaluer leur prestation. Quel que fût le domaine abordé, les résultats ont été d'une constance remarquable. Systématiquement, les sujets les moins aptes surestimaient de beaucoup leur capacité à réussir l'épreuve ainsi que le nombre de questions auxquelles ils avaient répondu juste. A l'inverse, les plus doués des participants avaient un peu tendance à se dévaluer. Plusieurs semaines après le test portant sur la grammaire, les auteurs de l'étude ont invité les meilleurs mais aussi les plus nuls des participants à une deuxième session au cours de laquelle ils avaient pour mission de corriger les copies de cinq autres personnes et... de se réévaluer après avoir vu leurs réponses. Il advint ce qui devait arriver : les « champions » s'aperçurent qu'ils étaient meilleurs qu'ils ne le croyaient tandis que les cancres furent incapables de reconnaître la compétence des autres et de se remettre en question. Tout allait bien pour eux. Contents, contents, contents...

Depuis cette étude, ce biais dans l'auto-évaluation des incompétents, cette « surconfiance » qu'ils ont en leur capacité, porte le nom d'effet Dunning-Kruger. Les deux chercheurs américains ont désormais, en la personne de leur nouveau président, un sujet idéal pour tester leur théorie.

Source : « Improbablologie » de Pierre Barthélémy dans le supplément Science & Médecine du Monde 

Du sel pour refroidir

Du sel pour refroidir

On montre que l’ajout de sel provoque l’abaissement de la température de solidification de l’eau en introduisant dans un mélange sel-glace un tube à essais dans lequel l’eau gèle.

Fiche d’accompagnement de l’expérience:

Matériel

Adresse de la video :http://pod.univ-lille1.fr/video/1502-du-sel-pour-refroidir/

  • un bloc de glace
  • du sel de cuisine
  • une caméra infra rouge
Montage et réalisation

Déposer une cuillère de gros sel sur le bloc de glace.

Constater que la partie du sel en contact avec le bloc de glace descend rapidement en température pour atteindre plus ou moins rapidement -19°C.

Explications

La dissolution du sel dans l’eau absorbe de la chaleur.

Pour dissoudre 1 g de sel il faut apporter une quantité de chaleur de 66 joules.

Le sel, en contact avec le bloc de glace, prend cette quantité de chaleur au bloc de glace, et on constate sur la vidéo que l’interface sel-glace devient très froide.

La température du mélange ne cesse alors de baisser pendant plusieurs minutes.

Un mélange sel-glace permet donc d’atteindre des températures très basses: de l’ordre de -19°C.

Revenons plus en détail sur ce phénomène :

L’eau pure passe de l’état solide à l’état liquide et inversement à 0°C: on appelle cette température la température de fusion de la glace et de l’eau (température qui permet le passage d’un état liquide à un état solide).

Si on a un mélange eau pure + glace pure et que la température ambiante est inférieure à 0°C, la glace ne pourra se refroidir que lorsque l’eau se sera « transformée » en glace : le mélange reste donc à 0°C le temps que l’eau devienne glace, et peut ensuite se refroidir pour s’adapter à la température ambiante (-5°C par exemple).

Le processus est le même si on a un mélange glace / eau et que la température ambiante est supérieure à 0°C (il faut que la glace fonde pour que le mélange se réchauffe ensuite).

Tout cela n’est vrai que s’il s’agit d’eau pure. En effet, si des substances sont ajoutées à l’eau, la température de fusion a tendance à baisser en fonction du type d’impuretés et de la quantité présente dans l’eau.

L’eau salée à des propriétés différentes de l’eau pure, et a une température de fusion inférieure à celle de l’eau.

Lorsque l’eau est composée de 10% de sel, elle gèle aux alentours de -7°C.

L’eau salée qui contient 23% de sel détient le record et gèle à -21°C.

Lorsque l’on répand du sel sur la neige ou la glace, celui-ci se dissout avec l’eau.

Cependant, pour se dissoudre dans l’eau, le sel a besoin d’énergie, et va donc puiser la « chaleur » de la glace, qui va alors se refroidir. On appelle cela une réaction endothermique, c’est-à-dire que le sel absorbe de la chaleur pour se dissoudre, chaleur qu’il trouve dans la glace qui se refroidit.

Mais l’eau salée a une température de fusion inférieure à celle de l’eau pure et gèle en dessous de 0°C.

Le mélange eau/ sel ne pourra pas devenir solide car la température du mélange remonte ensuite pour s’adapter à l’air ambiant (-2°C par exemple) et reste liquide, car elle ne peut se solidifier qu’à -21°C.

Et ainsi la neige ou la glace fond.

Pourquoi répand-on du sel sur les routes en hiver ? d’après(Didier Perret)

Le sel fait fondre la glace (qui est de l’eau sous forme solide) mais en même temps que la glace fond, la température du mélange glace-sel descend fortement

Lorsque la température descend en-dessous de 0°C, l’eau sous forme liquide (y compris l’humidité ambiante) se transforme en eau solide, la glace.

La différence fondamentale entre l’eau liquide et l’eau solide est la manière dont les molécules d’eau individuelles s’organisent: dans l’eau liquide, les molécules (constituées d’un atome d’oxygène auquel sont liés deux atomes d’hydrogène) sont relativement libres d’effectuer des mouvements les unes par rapport aux autres; elles se lient entre elles puis défont rapidement ces liaisons, et ainsi de suite.

Lorsque la température descend puis devient inférieure à 0°, ces mouvements ralentissent jusqu’à cesser; les molécules d’eau se lient alors de manière suffisamment durable entre elles, de manière symétrique, pour que le système se fige sous forme de glace, de l’eau solide.

Si le processus de refroidissement est lent, on observe la création de magnifiques cristaux de glace, car les liaisons entre molécules individuelles ont le temps de se former de manière très symétrique à large échelle.

Prenons à présent du sel de cuisine (chlorure de sodium); lorsqu’on épand ce sel sur une route verglacée (ou sur les glaçons du congélateur), les molécules de sel se dissocient en leurs ions sodium et chlorure, exactement comme lorsque l’on introduit du sel de cuisine dans un verre d’eau. Ces ions apprécient la proximité des molécules d’eau et perturbent localement l’arrangement de ces dernières.

Atomes d’hydrogène et d’oxygène

Ions sodium et chlorure

Une représentation du processus de dissolution du sel de cuisine (chlorure de sodium) dans l’eau.

Le chlorure de sodium est formé de l’assemblage régulier d’ions chlorures chargés négativement et d’ions sodium chargés positivement.

Si l’on observe ce qui se passe à l’échelle microscopique lorsqu’un grain de sel (qui contient des milliards de milliards de molécules) arrive en contact avec la surface de la glace, les atomes de l’eau solide et les ions du grain de sel se réarrangent pour former une nouvelle phase (H2O×NaCl; on l’appelle un eutectique ), qui fond et qui produit une fine pellicule d’eau liquide à la surface de la glace.

Le processus se propage alors en profondeur dans le reste de la glace, puisque les ions dans le film liquide entrent en contact avec la glace encore présente sous le film liquide. Lentement, l’eau solide se transforme donc en eau liquide… et salée. Le verglas fond donc sur la route.

On pourrait penser que lorsque la glace fond sous l’action du sel, la température monte au-dessus de 0°C. Eh bien il n’en est rien, au contraire !

Pour se dissocier et arracher des molécules individuelles d’eau à la glace, les molécules de sel ont besoin d’énergie, qu’elles trouvent en l’extirpant des molécules d’eau qui constituent les cristaux de glace. Et lorsque l’eau solide se fait prendre son énergie, sa température diminue fortement; en jargon spécialisé, on dit que ce processus est endothermique (absorption de l’énergie du système).

On peut faire l’expérience très simplement à la maison : broyer rapidement en paillettes grossières des cubes de glace et introduire rapidement un thermomètre dans ces paillettes (la température est de 0°C), puis ajouter rapidement du sel de cuisine sur les paillettes et mélanger avec le thermomètre pour faciliter le contact glace-sel. Au fur et à mesure que la glace fond, on constate que la température descend; théoriquement, on peut atteindre jusqu’à -22°C ! En conclusion, lorsque le sel fait fondre la glace, il la fait fortement refroidir, contrairement à ce qu’on pourrait penser.

On peut remplacer le sel de cuisine par un autre sel (p.ex. chlorure de calcium ou chlorure de magnésium) pour faire fondre la glace sur les routes ; le même processus de dissolution est observé, mais le résultat est un peu différent, puisqu’une molécule de chlorure de calcium ou de chlorure de magnésium produit deux ions chlorure pour un ion calcium ou magnésium ; dans ce cas, la présence d’un plus grand nombre d’ions permet d’accélérer la fonte de la glace.

Voir aussi :

Source : http://phymain.unisciel.fr/du-sel-pour-refroidir/

Pourquoi met-on du sel sur les routes en hiver?

Pourquoi met-on du sel sur les routes en hiver?

Pour répondre simplement, le sel fait fondre la glace (qui est de l'eau sous forme solide), ce qui est bien pratique pour tous les usagers de la route. Mais ce qui est paradoxal, c'est qu'en même temps que la glace fond, la température du mélange glace-sel descend fortement! Pour les détails, procédons par étapes: d'abord la glace, puis le sel, et finalement le mélange glace-sel.

Lorsque la température descend en-dessous de 0°C, l'eau sous forme liquide (y compris l'humidité ambiante) se transforme en eau solide, la glace. C'est ce qu'on observe lorsqu'on place de l'eau dans un congélateur.

La différence fondamentale entre l'eau liquide et l'eau solide est la manière dont les molécules d'eau individuelles s'organisent: dans l'eau liquide, les molécules (constituées d'un atome d'oxygène auquel sont liés deux atomes d'hydrogène) sont relativement libres d'effectuer des mouvements les unes par rapport aux autres; elles se lient entre elles puis défont rapidement ces liaisons, et ainsi de suite.

Lorsque la température descend puis devient inférieure à 0°, ces mouvements ralentissent jusqu'à cesser; les molécules d'eau se lient alors de manière suffisamment durable entre elles, de manière symétrique, pour que le système se fige sous forme de glace, de l'eau solide.

Si le processus de refroidissement est lent, on observe la création de magnifiques cristaux de glace, car les liaisons entre molécules individuelles ont le temps de se former de manière très symétrique à large échelle (Entendons-nous: dans le monde des molécules, une large échelle reste microscopique…).

Prenons à présent du sel de cuisine (chlorure de sodium); lorsqu'on épand ce sel sur une route veglacée (ou sur les glaçons du congélateur), les molécules de sel se dissocient en leurs ions sodium et chlorure, exactement comme lorsque l'on introduit du sel de cuisine dans un verre d'eau. Ces ions apprécient la proximité des molécules d'eau et perturbent localement l'arrangement de ces dernières.

Si l'on observe ce qui se passe à l'échelle microscopique lorsqu'un grain de sel (qui contient des milliards de milliards de molécules) arrive en contact avec la surface de la glace, les atomes de l'eau solide et les ions du grain de sel se réarrangent pour former une nouvelle phase (H2O×NaCl; on l'appelle un eutectique), qui fond et qui produit une fine pellicule d'eau liquide à la surface de la glace.

Le processus se propage alors en profondeur dans le reste de la glace, puisque les ions dans le film liquide entrent en contact avec la glace encore présente sous le film liquide. Lentement, l'eau solide se transforme donc en eau liquide… Et salée. Le verglas fond donc sur la route.

On pourrait penser que lorsque la glace fond sous l'action du sel, la température monte au-dessus de 0°C. Eh bien il n'en est rien, au contraire!

Pour se dissocier et arracher des molécules individuelles d'eau à la glace, les molécules de sel ont besoin d'énergie, qu'elles trouvent en l'extirpant des molécules d'eau qui constituent les cristaux de glace. Et lorsque l'eau solide se fait prendre son énergie, sa température diminue fortement; en jargon spécialisé, on dit que ce processus est endothermique (absorption de l'énergie du système).

On peut faire l'expérience très simplement à la maison: broyer rapidement en paillettes grossières des cubes de glace et introduire rapidement un thermomètre dans ces paillettes (la température est de 0°C), puis ajouter rapidement du sel de cuisine sur les paillettes et mélanger avec le thermomètre pour faciliter le contact glace-sel. Au fur et à mesure que la glace fond, on constate que la température descend; théoriquement, on peut atteindre jusqu'à -22°C! En conclusion, lorsque le sel fait fondre la glace, il la fait fortement refroidir, contrairement à ce qu'on pourrait penser.

On peut remplacer le sel de cuisine par un autre sel (p.ex. chlorure de calcium ou chlorure de magnésium) pour faire fondre la glace sur les routes; le même processus de dissolution est observé, mais le résultat est un peu différent, puisqu'une molécule de chlorure de calcium ou de chlorure de magnésium produit deux ions chlorure pour un ion calcium ou magnésium; dans ce cas, la présence d'un plus grand nombre d'ions permet d'accélérer la fonte de la glace.

Adresse video : http://www.rts.ch/play/tv/rts-decouverte/video/pourquoi-ajoute-t-on-du-sel-sur-les-routes-en-hiver?id=3763529

Voir aussi : CONGÉLATION DE L’EAU SALÉE ; Saler l’eau des nouilles ?

Source : Pourquoi met-on du sel sur les routes en hiver? - rts.ch - découverte - science et environnement - maths, physique, chimie

Saler l'eau des nouilles ?

Pourquoi faut-il saler l'eau de cuisson des nouilles ?

Je le sens, encore une question qui vous fige en plein coeur de la nuit, couvert de sueur, et vous empêche définitivement de vous rendormir. Tous les livres de cuisine le disent, il faut saler l'eau des nouilles pour les cuire. Mais personne ne nous dit pourquoi. Alors ça énerve.

Il n'y a pas le choix, il faut imaginer des raisons, et les tester scientifiquement...

Idée 1: L'eau salée bout plus vite que l'eau douce, alors on gagne du temps
Idée 2: L'eau salée bouillante est plus chaude que l'eau douce bouillante, alors ça cuit plus vite.

Donc, l'expérimentation est toute trouvée. Une source de chaleur, deux volumes d'eau identiques, on ajoute du sel dans l'un des deux. On chauffe chacune des deux eaux en suivant leur température au cours du temps. On ne va quand même pas se laisser marcher dessus par des nouilles.

Voici les résultats de l'expérience:

chauffage d'eau salée
Voilà donc la température en fonction du temps pour de l'eau salée et de l'eau douce. Des différences sont visibles...

Deux observations sautent aux yeux des plus myopes d'entre nous:

1/ L'eau douce chauffe plutôt plus vite que l'eau salée (ce qui donne une claque à notre 1ère idée au passage). Après coup, quand on y pense, cela paraît logique puisque on chauffe plus de matière que dans le cas de l'eau douce. Rappelez vous: "deux volumes d'eau identiques, plus du sel dans l'un d'eux...". Il est normal que plus on a de matière à chauffer et plus cela prend du temps. Il est probable que si l'on prenait les mêmes volumes d'eau douce et d'eau salée, on aurait l'inverse. Je vous laisse le soin de le tester...

2/ L'eau salée bout à une température légèrement supérieure à celle de l'eau douce (environ deux degrés Celsius). D'ailleurs cela rappelle qu'il est possible aussi de modifier la température de congélation de l'eau en lui ajoutant du sel... Là, on tient peut-être quelque chose, non? Si la température d'ébullition est plus haute en eau salée, les nouilles cuiront plus vite... Non? qu'est-ce que vous en pensez?...

A ce moment, le scientifique débutant est sur le point de se sentir tout frétillant de bonheur! Voilà enfin une bonne explication rationnelle: je gagne un peu de temps de cuisson. Un peu comme dans la cocotte-minute : la pression augmentait la température d'ébullition, et ça cuisait donc plus vite. La conscience du devoir accompli et le sentiment d'avoir apporté sa contribution à la compréhension des mystères insondables de l'Univers, notre expérimentateur est sur le point de refermer son carnet de notes quand un sentiment de malaise commence à titiller une paire de neurones jusque là somnolents.

Hem... peut-être cela ne vous aura t-il pas échappé, mais pas une seule nouille n'a été sacrifiée dans cette expérience. Pourtant, elles étaient en bonne place dans la distribution des rôles. Bien, reprenons: mêmes volumes d'eau, du sel dans un des récipients et trois nouilles dans chaque casserole dès que l'ébullition démarre (alors que la température n'augmente plus). Dix minutes plus tard, on sort nos six cobayes afin de juger de leurs mines (ils ont été cuits en simultané).

nouilles à l'eau douce et à l'eau salée

Jouons aux devinettes: lesquelles sortent de l'eau salée? Celles de droite sont plus gonflées, plus pâles et plus molles. En gros, plus cuites. Mais elles sortent de l'eau douce... Aïe...

Visiblement, la pénétration de sel dans la pâte de la nouille ralentit sa cuisson, alors que l'on espérait le contraire par l'augmentation de la température d'ébullition...

Nous voici donc tout déconfits:  on ne trouve aucun avantage à les cuire à l'eau salée, ces nouilles... Alors? Une idée?... Vous dites?... Le goût??...

Ah... C'est bien possible finalement... Bon, tant pis pour la physique...

Voir aussi : Pourquoi met-on du sel sur les routes en hiver? ; CONGÉLATION DE L’EAU SALÉE

Source : Saler l'eau des nouilles

CONGÉLATION DE L'EAU SALÉE

    Température de congélation de l'eau salée

    L'eau salée gèle à une température inférieure à 0°C, et l'abaissement de température de congélation dépend de la concentration en sel. Ainsi, l'eau de mer gèle à -1,9°C pour une salinité de 35g/l. Lorsque de l'eau salée gèle, la glace ne contient pas de sel. Les ions du sel n'arrivent pas à se placer dans la structure de la glace. Si dans un récipient on a de la glace en équilibre avec de l'eau salée, au fur et à mesure que la glace fond, l'eau devient de moins en moins salée, et la température de fusion augmente. Il n'y a donc pas de palier, à moins que l'eau salée soit en excès (eau de mer) ou que la solution soit saturée en sel (il y a alors un palier à  -21.6 °C)
      Explication de l'abaissement de la température de congélation par le sel

    L'explication de l'abaissement du point de congélation de l'eau est la suivante : il s'agit d'un phénomène entropique, c'est à dire géométrique. En s'intercalant entre les molécules d'eau, le sel dilue l'eau. Voyons cela plus en détail : lorsque la glace est en équilibre dans l'eau, il y a en fait en permanence des molécules de la glace qui s'échappent dans l'eau et, en nombre égal, des molécules de l'eau qui viennent se fixer sur la glace. Les ions du sel diluent l'eau et font que les molécules d'eau sont plus espacées.
    En effet, dans un liquide, les molécules sont en contact. On peut les considérer comme de petites sphères dures impénétrables. Les ions du sel (Na+ et Cl-) ont chacun un volume à peu près égal à celui des molécules d'eau. En se glissant entre les molécules d'eau, ces ions les séparent et les écartent les unes des autres. Étant plus espacées, les molécules d'eau frappent la glace moins souvent, et ainsi, il y en a moins qui viennent se fixer sur la glace; l'équilibre est rompu par le fait qu'il y a toujours autant de molécules qui quittent la glace (en effet, la glace ne contient pas de sel, et pour elle, rien n'est changé), et moins qui viennent se fixer dessus .C'est un phénomène tout à fait analogue à celui qui fait que l'eau s'évapore plus si la quantité de vapeur d'eau dans l'air diminue. Le sel fait baisser la "pression" de l'eau liquide.

      Animation : congélation de l'eau salée

    Dans l'animation ci-contre à droite, toute "molécule d'eau" (bille bleu violet) qui arrive sur le bord du bas gèle instantanément et devient blanche. Ce dernier bord, éjecte vers le liquide un débit de molécules qui dépend uniquement de la température. Plus il fait chaud, plus ce débit est grand. Si le débit est supérieur au débit des molécules qui arrivent, toute molécule qui arrive repart instantanément.

    Cette animation simule bien ainsi ce qui arrive dans la réalité, car, dans un mélange d'eau et de glace, il y a sans arrêt des molécules du liquide qui se fixent sur la glace, et le débit correspondant est proportionnel aux débit des molécules qui viennent frapper la glace (ici on prend un coefficient de proportionnalité de 1); d'autre part, il y a des molécules de la glace qui arrivent à se décrocher et à partir dans le liquide, et leur nombre augmente avec l'agitation donc avec la température.

    Dans un liquide, les molécules, qui ont un certain volume propre (le volume d'une molécule d'eau est voisin de celui d'un ion du sel), sont en contact. Le volume total du liquide est donc proportionnel au nombre de molécules du liquide. C'est ce qui est réalisé dans l'animation avec une profondeur de liquide proportionnelle au nombre de molécules du liquide.

    La première chose qu'on peut vérifier dans l'animation, et on peut faire cette vérification alors qu'il n'y a pas de sel, c'est que la fusion est brutale au dessus de 0°C. En effet, si une molécule part dans le liquide, cela n'augmente pas le débit de celles qui viennent se fixer sur la glace, car si le nombre de molécules dans le liquide est multiplié par 2 par exemple, la profondeur de liquide est aussi multipliée par 2, donc le temps pour faire un aller et retour aussi. Chaque molécule frappe donc la glace deux fois moins souvent. Si donc la température est telle qu'il y a un déséquilibre entre le nombre de molécules qui sortent et le nombre de celles qui rentre dans la glace, la fusion ne compense pas ce déséquilibre. On voit donc bien sur l'animation, l'extrême sensibilité du comportement collectif des molécules à la température. Dans la réalité, la fusion abaisse la température, donc diminue le débit des molécules qui vont de la glace vers l'eau, rétablissant ainsi l'équilibre. Ce phénomène n'est pas pris en compte dans l'animation.

    Mettons nous maintenant à une température négative, et introduisons du sel (billes rouges). À chaque fois qu'une bille rouge arrive, le volume augmente, donc la profondeur du liquide. Cela augmente le temps pour faire un aller et retour, pour une molécule du liquide, donc cela diminue le débit des molécules qui vont du liquide vers la glace. En effet, les ions du sel (billes rouges) ne peuvent pas rentrer dans la glace. L'équilibre est rompu, et la fusion reprend. Elle s'arrête quand les débits deviennent égaux; en effet, la fusion diminue la concentration en sel, donc augmente la température de fusion. On voit donc que le sel fait fondre la glace, et que la température de fusion de la glace dans l'eau salée dépend de la concentration de sel. Cela continue jusqu'à saturation de l'eau par le sel à 30 % de sel en poids, et la température de fusion est alors la plus basse, à -21,6°C.

      Mélange réfrigérant

    Même pour des températures très négatives, il existe un film d'eau liquide à la surface de la glace, du fait que les molécules à la surface sont moins bien attachées (elles sont retenues par un seul côté), et c'est la raison pour laquelle la glace et la neige glissent, et par conséquent pour laquelle on peut faire du ski.

    Prenons de la glace à 0°C. Si on met du sel au contact de cette glace, ce sel se dissout dans ce film d'eau à la surface de la glace. Ensuite, la glace fond (si la température est supérieure à-21.6 °C), car elle est en contact avec une solution saturée de sel dont le point de fusion est de-21.6 °C. La glace qui fond, absorbe de l'énergie qui est prise à l'agitation thermique, et la température décroît, jusqu'à -21,6°C si le sel est en quantité suffisante. On a fabriqué un mélange réfrigérant (vidéo ci-dessus à droite). En d'autres termes, le sel force la glace à fondre, et cette fusion forcée fait baisser la température. L'animation ci-contre montre l'abaissement de température quand des ions du sel ne peuvent pas pénétrer dans la glace. On calcule la moyenne de v2 et un terme est ajouté à chaque fois qu'un bille heurte le mur de droite ou celui de gauche. Quand on met le sel, dans un volume donné, là où il y avait deux molécules d'eau par exemple, il y a ensuite une molécule d'eau et un ion du sel.

Source : https://goo.gl/9ThPe7

Le Chat de Schrodinger expliqué simplement

Source : L'histoire du Chat de Schrödinger expliquée simplement

Le Chat de Schrödinger expliqué simplement

Il est une histoire des sciences que tout le monde connaît plus ou moins : celle du chat de Schrödinger. Je vais vous la raconter rapidement comme n’importe qui vous la raconterait, sans chercher à l’expliquer.

Erwin Schrödinger, l’un des piliers de la physique quantique, a imaginé une expérience de pensée à base de boite et de chat mort-vivant. Une expérience de pensée, c’est tenter de résoudre un problème en utilisant uniquement son imagination. C’est se poser la question : “que se passerait-il si….. ?”.

Le bon Erwin a donc imaginé l’expérience suivante : il enferme son chat dans une boite close, contenant un dispositif qui tue l’animal dès qu’il détecte la désintégration d’un atome d’un corps radioactif. De l’extérieur, on ne peut pas savoir ce qui se passe dans la boite.

En clair : le chat dans la boite peut vivre ou mourir, sans que l’on sache ce qui se passe depuis l’extérieur.

Dessin de l'expérience de Schrödinger

Dessin de l’expérience de Schrödinger

Schrödinger était-il un psychopathe, pour inventer cette expérience ?

Oh non, Erwin n’était pas dingue. Il a proposé cette expérience pour une bonne raison : il voulait confronter les gens aux paradoxes de la physique quantique.

Du temps d’Erwin Schrödinger, la physique quantique n’était pas encore vraiment acceptée par tous les scientifiques. En particulier, la théorie de la superposition quantique posait carrément problème.

Cette théorie nous explique que dans le monde quantique (c’est-à-dire à l’échelle de l’atome),  une particule – prenons un électron – peut être à plusieurs endroits en même temps. Vous devriez vous dire : “What ? Que l’on parle d’un électron ou d’une balle de tennis, comment un objet peut-il être à plusieurs endroits à la fois ?!”

Voila comment c’est possible (spoiler : c’est la faute aux maths)

Lorsqu’on parle des théories quantiques, il n’y a (presque) qu’une chose à garder en tête : la physique quantique est née grâce aux maths et continue à vivre grâce aux maths.

En physique classique, on dispose d’équations mathématiques pour décrire le monde qui nous entoure. On connaît par exemple l’équation “P = mg”, pour calculer un poids. En physique quantique aussi, il existe un tas d’équations pour décrire ce qui se passe à l’échelle de l’atome.

Et accrochez-vous (ouais, bon, j’exagère) : l’équation pour connaître la position d’un électron à un instant donné fait rentrer en jeu des probabilités. Autrement dit, un électron a “x% de chance d’être ici, y% d’être là, z% d’être ici ou là”. Mathématiquement, cela se traduit littéralement par : “l’électron est aux trois endroits en même temps“.

Voila pourquoi on parle de superposition quantique.

Wouahou ! Bref, donc le chat, il meurt à la fin ou pas ?

Vous avez raison, revenons-en au chat. Schrödinger a proposé cette expérience de chat dans une boite pour une raison assez simple : il voulait illustrer les paradoxes de la physique quantique à l’échelle humaine. Au lieu de parler d’un électron et d’un atome (dont tout le monde se fiche et que personne ne comprend), il a pris l’image d’un chat tout mignon.

Dans sa boite, le chat est accompagné d’un horrible mécanisme qui casse une fiole de poison s’il détecte la désintégration d’un atome d’un corps radioactif (voir le dessin plus haut).

Pas la peine de savoir à quoi correspond la désintégration d’un atome, blablabla. Tout ce qu’il faut comprendre, c’est que cet évènement de désintégration est totalement aléatoire. Autrement dit, personne au monde, pas même le scientifique le plus doué, ne serait capable de vous dire à quel moment le mécanisme dans la boite se déclenchera (ou même s’il se déclenchera).

Schrödinger s’imagine donc à côté de cette boite totalement fermée et se dit :

Je n’ai aucun moyen de savoir si le mécanisme s’est déclenché. Si mon chat était un objet quantique, je dirais qu’il est à la fois mort et vivant car selon la théorie de la superposition quantique, c’est tout à fait possible.

La seule manière pour lui de savoir si son chat est mort ou vivant, c’est d’ouvrir la boite et de constater. Lorsqu’Erwin ouvrira la boite, on parlera de décohérence quantique. La situation ambiguë (“mort ou vivant ?”) se résout instantanément car une fois la boite ouverte, le minou n’est plus “ou mort ou vivant”, il est clairement soit l’un, soit l’autre.

J’insiste sur la forme : Schrödinger dit que son chat est “mort ou vivant” car il s’est amusé à décrire le monde qui l’entourait avec une théorie propre à la physique quantique (la théorie de la superposition quantique). Or, les théories quantiques ne peuvent pas être utilisées pour décrire le monde à notre échelle. Elles ne fonctionnent qu’à l’échelle de l’atome.

Que faut-il retenir de cette expérience ?

Conclusion n°1 : la physique quantique doit rester quantique

J’aurais l’occasion d’y revenir dans un autre article mais la première conclusion est la suivante : les propriétés de la physique quantique doivent rester dans le monde quantique. Exporter les propriétés quantiques dans notre monde macroscopique conduit à des situations irréalistes, comme un chat mort et vivant en même temps.

À l’échelle de l’atome, le fait qu’un élément soit tout et son contraire est interprétable (voir l’interprétation de Copenhague). À notre échelle humaine, cela n’a aucun sens et aucun intérêt.

Les gourous (ceux des sectes) et les mordus de développement personnel adorent la physique quantique et l’utilisent de plus en plus dans une optique marketing (du gros lol ici par exemple). Ils font dire à la PQ des trucs absurdes du genre “il n’existe pas une réalité mais une superposition de réalités, blabla”. Ces gars là sont des tordus et n’ont rien compris à la PQ.

Conclusion n°2 : le chat n’est pas un objet quantique

À l’échelle de l’atome, les choses se déroulent de manière aléatoire. Un électron est un objet quantique. Un chat n’est pas un objet quantique car il ne dispose d’aucune propriété quantique. En d’autres termes : il ne suit pas le principe de superposition quantique.

Une pièce de monnaie n’est pas non plus un objet quantique : lorsque vous jouez à “pile ou face”, la pièce tombe soit sur pile, soit sur face, soit sur la tranche. On ne peut pas dire que la tranche soit une superposition de deux états, c’est un état comme un autre.

Conclusion n°3 : il existe peut-être des univers parallèles

L’interprétation de Copenhague est un courant de pensée qui cherche à donner une interprétation cohérente aux phénomènes quantiques. Par exemple : “À quoi correspond intellectuellement un objet quantique qui est dans deux états à la fois (par exemple une particule qui est à deux endroitsdifférents en même temps) ?”. Avec l’expérience du chat, on vient de voir que donner un sens à ce truc délirant n’est pas du tout facile.

Selon l’interprétation de Copenhague, l’état quantique n’a pas de sens physique. Selon cette interprétation, il est inutile de chercher une signification physique, réelle, palpable, à ce qui n’est et ne doit rester qu’une pure formule mathématique. Autrement dit : la superposition quantique est en quelque sorte un artifice mathématique utile dans les calculs des physiciens quantiques qui ne peut pas être illustré.

Pour une autre interprétation, la Théorie d’Everettl’état de superposition admet une interprétation physique. Les états superposés (chat mort et chat vivant) existeraient dans une infinité d’univers parallèles. Par exemple : si le chat de Schrödinger était un objet quantique, alors il serait mort dans un univers et vivant dans un autre univers parallèle. Lorsque Schrödinger ouvrirait la boite pour voir comment va son chat, il serait instantanément transporté dans l’un des deux univers créés, en fonction de l’état du chat. Why not ?

Aucune interprétation ne fait aujourd’hui l’unanimité des physiciens.

Pour résumer en 2 mots

En physique quantique, c’est-à-dire à l’échelle de l’atome et de l’électron, certaines particules peuvent être dans deux états contraires en même temps. On appelle ça la superposition quantique. D’un point de vue mathématique c’est tout à fait exact : un électron est mathématiquement à plusieurs endroits à la fois, car on utilise des calculs de probabilité pour connaître sa position. Il est “peut-être là, ici ou encore là”. Chaque position étant associée à un  coefficient de probabilité.

D’un point de vue physique, il y a deux écoles : d’abord l’école de Copenhague, qui dit que la superposition quantique ne doit pas chercher à être illustrée. Elle réfute l’histoire du chat de Schrödinger qui, selon elle, n’a aucun intérêt car la superposition quantique ne doit pas être interprétée physiquement. Le phénomène doit rester un concept mathématique.

Ensuite, la théorie d’Everett qui nous dit que concrètement, il existe peut-être des univers parallèles pour chaque état superposé.

PS : si la physique quantique vous passionne et que vous voulez en savoir ENCORE plus, regardez le livre qu'on a écrit, il est facile à lire et répondra à toutes vos questions.

Un hamburger a-t-il plus d’énergie qu’une Formule 1 ?

Un hamburger a-t-il plus d’énergie qu’une Formule 1 ?

Un élève, pendant le cours de technologie en classe de troisième, a interpellé son professeur pour lui faire part de son étonnement concernant deux informations repérées sur un site Internet dédié à l’énergie [2] où il était écrit :

♦ énergie chimique contenue dans un hamburger phare d’une célèbre enseigne de restauration rapide(2) : 495 kcal soit environ 2 MJ ;
♦ énergie cinétique d’un véhicule de 1 000 kg roulant à 180 km/h : 1 250 000 joules. 

Question de l’élève : Comment se peut-il qu’un hamburger ait plus d’énergie qu’une Formule 1 roulant à 180 km/h ?

Quelques réponses et pistes de ré exion sont proposées pour aider l’élève à sortir de sa légitime perplexité.

Article :  hamburger vs formula1 ou ici

Méthodologie du classement de Shangaij

Comment choisir les universités classées

Le classement académique concerne les université où un parmi tous les professeurs ou les étudiants anciens a pris le prix Nobel ou le médaille Fields; où un personnel a plublié dans Nature ou Science pendant les 10 ans derniers et où les dissertations répertoriées dans SCIE et SSCI sont relativement nombreuses. Parmi les 2000 universitées qui satisfont au moin une discipline, 1200 sont effectivement classées et 500 meilleures universités sont plubliées.

Le système des critères de classement

Les universités sont classée en matière de performance académique par 6 indices, à savoir le chiffre pondérédu nombre des anciens étudiants qui ont pris le prix Nobel et médailles Fields (alumni), le chiffre pondéré du nombre des professeurs qui ont pris le prix Nobel et médailles Fields (award), le nombre de chercheurs les plus cités dans leur discipline (HiCi), le chiffre pondéré du nombre de publications dans les revues scientifiques Nature et Science (N&S), le nombre de chercheurs répertoriés dans, le Science Citation Index-Expanded (SCIE) et le Social Science Citation Index (SSCI) (PUB), et le chiffre moyen des 5 indicateurs dernières. Le classement concerne effectivement chaque année plus de 1200 universités dont les premiers 500 sont publiées.

Lors du classement, en matière d’une des 6 indice y compris Alumni、Award、HiCi、N&S、PUB、PCP, la note la plus haute s’élève à 100. Les notes des autres universitées sont déternimées sous la forme de la proportion par rapport à la note la plus élevée. Si une distribution de données d'une indice montre une anomalie évidente, les méthodes statistiques classiques seront utilisées pour traiter les donnés. Les six notes d’une université sont pondérées afin que la note totale la plus élevée est de 100. Les notes des autres universités sont décidé en fonction de la proportion par rapport à la note la plues élevée.

Les indicateurs et le poids des indicateurs du classement académique des universitées mondiales

Indiateur de niveau 1 Indicateur de niveau 2 Code poids
Qualité éducaitàve le chiffre pondérédu nombre des anciens étudiants qui ont pris le prix Nobel et médailles Fields Alumni 10%
Qualite des professeurs le chiffre pondéré du nombre des professeurs qui ont pris le prix Nobel et médailles Fields Award 20%
le nombre de chercheurs les plus cités dans leur discipline HiCi 20%
Les résultats des recherches scientifiques e chiffre pondéré du nombre de publications dans les revues scientifiques Nature et Science N&S 20%
le nombre de dissertaitions répertoriés dans le Science Citation Index-Expanded (SCIE) et le Social Science Citation Index (SSCI) PUB 20%
La performance moyenne des professeurs le chiffre moyen des 5 indicateurs dernières PCP 10%
* Pour les universités purement littéraire, on ne prend pas en compte l’indicateur N&S. Son poids est partageé en fonction de proportion par les autres indicateurs.

La définition des indicateurs et la méthodologie des statistiques.

Alumni signifie le nombre de prix nobel et médailles Fields pris par les anciens étudiantsdans une université. Les anciens étudiants signifient les personnes qui sont diplômés en licence, masteur ou docorat. Pour mieux refléter la performance académique d’une université, les étudiants des époques différentes sont accordés des poids différents. Le poids augmente de 10% tous les dix ans. Par exemple, le poids des étudiants de 2001 à2010 est de 100%, celui de 1991 à 2000 90%, celui de 1911 à 1920 10%. Enfin, on calcule le chiffre pondéré dupuis l’année 1911. Si un ancien étudiant a obtenu plus de 2 diplômes, on ne calcule que la dernière fois.

Award signifie le nombre de Prix Noble (physique, chimie, physiologi ou médecine, économie) et Médailles Fields (mathématiques) pris par les professeurs d’une universitéé. Pour mieux refléter la performance académique d’une université, les professeurs des époques différentes sont accordés des poids différents. Le poids augmente de 10% tous les dix ans. Par exemple, le poids des profs apres 2011 est de 100%, celui de 2001 à2010 est de 90%, celui de 1991 à 2000 80%, celui de 1921 à 1930 10%. Enfin, on calcule le chiffre pondéré dupuis l’année 1921. Si le prof travaille en même temps dans deux universités, chaque établissement occupe 50% de ce chiffre. Le poids des professeurs qui partagent un Prix Nobel est la proportion des récompenses.

HiCi Le nombre de chercheurs les plus cités qui sont sélectionnés par Thomson Reuters. Thomson Reuters a publié deux listes de chercheurs les plus cités: l'ancienne liste a été publiée pour la première fois en 2001, en identifiant plus de 6000 chercheurs. Le nombre de chercheurs hautement cités sur cette liste a été utilisé dans ARWU de 2003 à 2013. En 2014, Thomson Reuters a développé une nouvelle liste des chercheurs les plus cités avec presque 3000 noms basés sur une méthodologie différente. Afin d'avoir une transition relativement douce à la nouvelle liste des chercheurs les plus cités et d'éviter trop de fluctuations de résultats du classement en raison de ce changement, à la fois l'ancienne et la nouvelle liste des chercheurs les plus cités sont utilisés dans le calcul de l'indicateur HiCi dans ARWU 2015, et elles sont pondérés de façon égale. Le score d'un établissement sur HiCi dans ARWU 2015 est la somme de son score pour l'ancienne liste et la nouvelle liste (Cliquez ici pour voir toutes ces scores). Le score HiCi d'un établissement sur l'ancienne liste est même que son score HiCi dans ARWU 2013, et le score HiCi d'un établissement sur la nouvelle liste dépend de son nombre de chercheurs les plus cités sur la nouvelle liste. Il est à noter que, Prämie la proposition de nombreus établissements et chercheurs, y compris des chercheurs les plus cités, seuls les apparitions primaires de nouveaux chercheurs les plus cités sont pris en compte dans le calcul de la score HiCi d'un établissement sur la nouvelle liste.

N&S Le nombre d'articles publiés dans Nature et Science entre 2010 et 2014. Afin de distinguer l'ordre de l'auteur apparation, un poids de 100% est appliquée pour l'auteur correspondant, 50% pour l'auteur de la première apparation(deuxième apparation de l'auteur si la première est le même que celle de l'auteur correspondant), 25% pour l'auteur de troisième propositin, et 10% pour les autres auteusr. Seules les publications d’article type est prises en considération.

PUB Le nombre total d'articles inclus le Science Citation Index-Expanded (SCIE) et le Social Science Citation Index (SSCI) en 2014. Seulement les publications d’article de type est prises en compte. Lors du calcul du nombre total de dissertation d'une institution, 'un poids particulier des deux a été introduit pour les papiers indexées dans le Social Science Citation Index.

PCP Les scores pondérés des cinq indicateurs ci-dessus respectivement divisé par le nombre de personnels universitaires à temps plein. Si le nombre de membres dess personnels académiques des institutions d'un pays ne peut pas être obtenu, les scores pondérés des cinq indicateurs ci-dessus sont utilisés. Pour ARWU 2015, le nombre de personnels universitaire équivalent à temps plein sont utilisé pour les institutions aux Etats-Unis, au Royaume-Uni, en France, au Canada, au Japon, en Italie, en Chine, en Australie, aux Pays-Bas, en Suède, en Suisse, en Belgique, en Corée du Sud, en tchèque, en Slovénie, en Nouvelle-Zélande, etc

Sources de chiffres

Le prix Nobel:http://nobelprize.org/

Médailles Fields:http://www.mathunion.org/index.php?id=prizewinners

chercheurs les plus cités dans leur discipline(HiCi):http://www.highlycited.com

Dissertations publiées dans Nature et Science:http://www.webofknowledge.com

dissertaitions répertoriés dans, le Science Citation Index-Expanded (SCIE) et le Social Science Citation Index (SSCI):http://www.webofknowledge.com

Les chiffres sur les nombres de professeurs: Les ministres d’éducation, les agences statistiques, les associations des présidents d’universités.

Acoustic Prism

Acoustic Prism Invented at EPFL

09.08.16 - EPFL scientists have invented a new type of “acoustic prism” that can split a sound into its constituent frequencies. Their acoustic prism has applications in sound detection.

Almost 400 years ago, Newton showed that a prism could split white light into the colors of the rainbow, with each colour corresponding to a different wave frequency. Such an “optical prism” relies on a physical phenomenon (refraction) to split light into its constituent frequencies.

Now, a prism exists for sound. Hervé Lissek and his team at EPFL have invented an "acoustic prism" that splits sound into its constituent frequencies using physical properties alone. Its applications in sound detection are published in the Journal of the Acoustical Society of America.

The acoustic prism is entirely man-made, unlike optial prisms, which occur naturally in the form of water droplets. Decomposing sound into its constituent frequencies relies on the physical interaction between a sound wave and the structure of the prism. The acoustic prism modifies the propagation of each individual frequency of the sound wave, without any need of computations or electronic components.

Acoustic Prism Invented at EPFL
New type of "acoustic prism” that can split a sound into its frequencies.

The acoustic prism

The acoustic prism looks like a rectangular tube made of aluminum, complete with ten, perfectly aligned holes along one side. Each hole leads to an air-filled cavity inside the tube, and a membrane is placed between two consecutive cavities.

When sound is directed into the tube at one end, high-frequency components of the sound escape out of the tube through the holes near the source, while low frequencies escape through the holes that are further away, towards the other end of the tube. Like light through an optical prism, the sound is dispersed, with the dispersion angle depending on the wave’s frequency.

The membranes are key, since they vibrate and transmit the sound to the neighboring cavities with a delay that depends on frequency. The delayed sound then leaks through the holes and towards the exterior, dispersing the sound.

To take the concept a step further, the researchers realized that they could use the acoustic prism as an antenna to locate the direction of a distant sound by simply measuring its frequency. Since each dispersion angle corresponds to a particular frequency, it’s enough to measure the main frequency component of an incoming sound to determine where it is coming from, without actually moving the prism.

The principle of the acoustic prism relies on the design of cavities, ducts and membranes, which can be easily fabricated and even miniaturized, possibly leading to cost-effective angular sound detection without resorting to expensive microphone arrays or moving antennas.

Source : Acoustic Prism Invented at EPFL

La première classe en avion, catalyseur de colère

Le monde moderne regorge d'occasions de piquer une crise de nerfs. Au point que les Américains ont inventé une classification pour ces pertes de sang-froid. La plus classique est la road rage, la fureur du conducteur coincé dans un embouteillage et qui ouvre sa portière pour faucher le vingt-sixième motard qui le dépasse. On a la computer rage, où un ordinateur est criblé de balles – ou bien passe vraiment par la fenêtre – quand, après trois heures de mise à jour, s'inscrit sur l'écran la mention « La transition vers Windows 10 a échoué. Veuillez recommencer. » Vous avez aussi la wrap rage, la rage de l'emballage, qui surgit lorsque le plastique protégeant le produit que vous avez acheté refuse de céder – et ce en dépit de la mention « Ouverture facile » –, au point que tous les ustensiles coupants ou perçants qui vous tombent sous la main (ciseaux, cutter, rasoir, pic à glace, etc.) sont bons pour... couper ou percer cette même main.

Et, enfin, il y a l'air rage, la colère de l'air, cet énervement explosif qui s'empare d'un voyageur aérien, à 30 000 pieds d'altitude, lorsque le siège de devant s'abaisse droit sur son nez, alors qu'il est penché sur sa barquette de moussaka tiédasse. Ainsi que le fait remarquer une étude publiée le 2 mai dans les Proceedings de l'Académie des sciences américaine, il n'existe aucune recherche sur le sujet et, pour expliquer la colère de l'air, on évoque en général des avions bondés, des sièges étroits ou rapprochés, le temps mis à s'enregistrer sur le vol ou à embarquer, etc. Les deux auteurs de cet article, Katherine DeCelles (université de Toronto) et Michael Norton (Harvard Business School), ont une théorie différente : pour eux, l'aéronef, avec ses classes (première, business, économique), est une microcosme où, en raison de la configuration de la cabine et du mode d'embarquement, les inégalités sociales flagrantes deviennent des catalyseurs de pétage de plomb.

Pour tester leur hypothèse, ils ont décortiqué une base de données que leur a fournie une grande compagnie aérienne. Elle recensait des millions de vols et quelques milliers d'incidents y afférents, répartis sur plusieurs années. Etaient également indiqués les caractéristiques du vol, le modèle de l'avion, le nombre de passagers, etc. Le duo de chercheurs a voulu savoir si la probabilité pour que se déclenche une rixe de cabine était plus importante quand il y avait une première classe et quand on embarquait par l'avant de l'appareil, ce qui oblige les voyageurs de la classe économique à passer près des richards allongés dans leurs fauteuils, qui se font servir du champagne et du caviar alors qu'on balancera aux pauvres serrés comme des sardines un paquet de cacahuètes et un demi-sandwich club rassis, arrosé du fameux jus-de-tomate-qu'on-ne-boit-que-dans-l'avion. Résultat : la simple présence d'une première classe quadruplait presque le risque de révolte en classe économique. Et le fait d'embarquer par l'avant – et donc de baver devant l'opulence des nantis – multipliait par plus de 2 ledit risque par rapport à un embarquement par le milieu.

L'étude a mis en lumière un résultat encore plus surprenant : la probabilité pour qu'une colère de l'air se déclenche chez les privilégiés de première était multipliée par 12 (!) s'ils avaient vu défiler la plèbe. Les auteurs supposent que la vision de la basse caste, en provoquant inconsciemment des sentiments de supériorité et de mépris, exacerbent la tendance des rupins à se conduire comme des malotrus pleins d'arrogance.

Source : Pierre Barthélémy - Le Monde

Non, un adolescent n'a pas découvert une cité maya

Un adolescent canadien aurait découvert une nouvelle grande cité maya en établissant un lien avec les constellations. Une jolie histoire... pourtant totalement fausse selon les scientifiques.

CANULAR. Un Québécois de 15 ans a découvert une cité maya après avoir élaboré une théorie selon laquelle l'emplacement géographique des cités de cette civilisation précolombienne correspond aux constellations. Il a ainsi suffi à William Gadoury de s'apercevoir qu'il manquait une ville au point correspondant à une étoile de l'une de ces constellations, puis de voir sur des images satellites qu'à cet endroit se trouvaient justement des structures en pierre s’apparentant à une pyramide et à une trentaine de bâtiments, pour réaliser sa découverte géniale. Voici du moins la belle histoire annoncée samedi 7 mai 2016 par le Journal de Montréal et reprise depuis partout dans les médias. Sauf qu'elle ne tient pas debout un instant.

Drôle de carte

"Avec mes collègues, on rit beaucoup en regardant la carte censée situer l'emplacement de la cité, lâche Marie-Charlotte Arnauld, directrice de recherche émérite à l’ArchAm (Archéologie des Amériques, CNRS UMR8096), spécialiste de l'habitat et de l'urbanisation mayas. L’information géographique fournie est particulièrement mauvaise et aberrante." Après avoir été d'abord située au Belize (samedi), la cité serait maintenant au Mexique (voir carte ci-dessous). "Sur cette nouvelle carte de localisation, la cité fait un bond dans l'espace de plusieurs centaines de kilomètres pour se retrouver dans le sud-est de l'état du Campeche, au Mexique, explique Éric Taladoire, Professeur d'archéologie précolombienne, à Bernadette Arnaud, grand reporter àSciences et Avenir. Curieusement, sur cette même carte, le site guatémaltèque de Mirador passe la frontière pour se retrouver auMexique, ce qui confirme que la géographie n'est pas le fort de cette équipe". De plus, selon les spécialistes, la zone dans laquelle est censée se trouver le site est archi-prospectée par des centaines d'archéologues. Elle est également très peuplée : peu de chances donc qu'une grande cité maya puisse passer totalement inaperçue. Or, d'après le Journal de Montréal, il s'agirait de "la 4e plus importante cité maya", d'une "superficie totale de 80 à 120 km2", pas un petit village donc. Au passage, ces dimensions semblent "aberrantes" à Marie-Charlotte Arnauld les comparant à celles de Tikal, l'un des plus grands sites archéologiques et centres urbains de la civilisation maya, qui fait "à peine 20 km2".

Un champ de courges ?

À quoi correspond donc la forme géométrique observable sur les images satellitaires, si ce n'est à une gigantesque pyramide ? "Le carré qui a été trouvé sur Google Earth est bien d'origine humaine, mais il s'agit d'un ancien champ de maïs ou de milpa en jachère, tranche David Stuart, mayaniste américain, interrogé par le magazine WiredCette histoire à la une des actualités concernant la découverte d'une ancienne cité maya est fausse. J'ai essayé de l'ignorer (ainsi que les demandes des médias que j'ai reçues), mais maintenant qu'elle est sur le site de la BBC, je me sens obligé de dire quelque chose. Toute cette histoire est un gâchis - un terrible exemple de science de pacotille qui frappe un Internet en chute libre. Les anciens Mayas n'ont pas établi le plan de leurs anciennes cités selon les constellations."

"Ce n'est pas la planète Mars"

Même son de cloche en France du côté de l'ArchAm. "Inutile de perdre son temps à essayer de situer le nouveau site du jeune Canadien ; les coordonnées, la carte, le principe de localisation, tout est faux, incohérent et absurde, martèle Marie-Charlotte Arnauld. Cette histoire de planification de l'ensemble des cités en fonction des constellations est une aberration : les constellations sont des constructions culturelles (il s'agit juste de relier des points) et les nôtres nous viennent des Grecs ! De toutes façons, l'hypothèse de départ est fausse : elle oublie 3.000 ans d'Histoire. Les villes n'ont pas toutes été fondées ni occupées en même temps. Il n’y a pas de grand dessein maya et la forêt tropicale se gère comme n’importe quel milieu naturel, millénaire après millénaire. Ce n’est pas la planète Mars ! Bref, tout ceci est utile pour ramasser 1.000 dollars et payer son voyage au garçon. Mais il est triste que des journalistes acceptent ces canulars." Un emballement médiatique notamment dénoncé par le site Arrêt sur images.

Sur le web : La découverte du siècle : un collégien canadien découvre (peut-être) une cité perdue des Maya
http://www.ultimedia.com/deliver/generic/iframe/mdtk/01667468/src/lfps8v/zone/15/showtitle/1/
http://www.ultimedia.com/deliver/generic/iframe/mdtk/01667468/src/lfps8v/zone/15/showtitle/1/

Video : http://www.ultimedia.com/deliver/generic/iframe/mdtk/01667468/src/lfps8v/zone/15/showtitle/1/

Source : Non, un adolescent n'a pas découvert une cité maya - Sciencesetavenir.fr

Is Eye-Rolling Innate or Learned? - The Atlantic

Why 13-Year-Old Girls Are the Queens of Eye-Rolling

As far as facial expressions go, the eye-roll is one of the more deliberate forms of expressing contempt.

If there’s a clear age when eye-rolling begins, researchers haven’t yet identified it. What they have found, though, is that girls and women are society’s dominant eye rollers—and anyone who has been a teenager knows that plenty of girls have perfected the art by middle school.

“Eye-rolling is much more likely to occur in female teenagers than in male teenagers,” said Marianne LaFrance, a psychology professor at Yale University who studies facial expressions. “Among 13-year-old girls, it is a premiere way of indicating rejection or contempt, often in the context of bullying. So it’s really meant to be seen. It’s done with purpose.”

The purpose in many cases is to clearly demonstrate that you are not exactly thrilled with someone, thankyouverymuch. Whereas adolescent boys might shout or shove, a conflict with a teenaged girl is more likely to be punctuated with an exaggerated glance skyward  than a swinging of the fist.

“The eyes play a particularly important part in communication, so one would expect that they would be a prominent feature of nonverbal aggression,” wrote the authors of a 2012 paper on facial expressions and aggression in teenaged girls. In another study, in 1999, a group of girls in California described eye-rolling as a major component of what they referred to as “the look.”

“It begins with eye contact or a stare and, especially in females, often involves eye-rolling and tossing back the head,” wrote the authors of the 2012 paper, referring to the earlier research. “The look was reported in their study to be only used in same-gender interactions, and conveys contempt. The girls in our study similarly reported ‘daggers’ as being something that was directed only at other girls but, unlike the Californian girls, there was a belief that boys do not use it at all.”

Regardless of who the target is, eye-rolling isn’t usually involuntary like some of the other expressions that flicker across our faces. But that doesn’t mean humans are always rolling their eyes for show, either. In one study, researchers asked women to sit at computer terminal, put on headphones, and listen to a series of jokes—some making fun of lawyers or other professionals, others disparaging to women. The women were asked to record their responses to the jokes on the computers as they listened. What the participants didn’t know was that they were also being videotaped, so that researchers could map their facial expressions as they reacted.

“We coded a number of facial expressions,” LaFrance, the Yale psychologist, told me, “and [in response to the sexist jokes], we found eye-rolling was not infrequent. Even though they were sitting there alone, when you see it, it really looks deliberate—whereas lots of other facial expressions are really automatic.”

That may not always be the case, however. “There’s also some evidence in the medical literature that it’s a tic, and it’s actually been found in Tourette’s syndrome and some other syndromes that show some involuntary muscle movement,” LaFrance said.

Culturally speaking, though, eye-rolling is clearly one of the emotive underpinnings to contempt. In fact, the psychologist John Gottman describes eye-rolling as one of the main features among what he describes as the “four horsemen” of relationship discord. Eye-rolling is an indicator of contempt, Gottman says, and contempt is a major predictor of divorce. (The other “four horsemen,” along with contempt, include stonewalling, defensiveness, and criticism.) “And it’s something that women are more likely to do rather than something more aggressive, even yelling,” LaFrance told me.

The telltale sign for an eye-roll, if it’s not clear you’ve encountered one, is the little smirk that often comes at the end. “The way we measure that is that it’s asymmetrical,” LaFrance said. “It’s much more likely to occur on one side of the mouth.” That same little half-smile is how LaFrance and her colleagues became convinced that Pat Christie, the wife of New Jersey Governor Chris Christie, was rolling her eyes at a recent Donald Trump campaign event, after Trump said, “The only thing [Hillary Clinton’s] got going is the woman’s card. And the beautiful thing is women don’t like her.”

“Chris Christie, of course, argues it wasn’t an eye-roll, that she was looking around,” LaFrance said. “I’ve spent years studying these expressions. There’s a very small smile that suggests that it is an eye-roll.”

And although the academic study of eye-rolling is still relatively sparse—it mostly comes up in the context of broader inquiry into facial expression—the larger cultural record of the practice is vast. There are references to eye-rolling in Shakespeare and throughout literature. (Though, as Forrest Wickman wrote for Slate in 2013, eye-rolling was often associated with lust up until the mid-20th century.)

Eye-rolling is also, quite possibly, uniquely human.

Monkeys don’t roll their eyes, even though they do follow one another’s gazes the way a human does, according to a primate researcher at Yale, Laurie Santos. And though LaFrance says she can’t rule out the idea of other animals as eye-rollers, she hasn’t yet heard of one. “It may be something that we humans can say is ours,” she said.

Related Video :

Ask a Tween: What Advice Would You Give to Adults?

"If you have a problem, go meditate or go on a vacation. Don't think about it."

Source : Is Eye-Rolling Innate or Learned? - The Atlantic

L’Académie américaine des sciences publie un rapport favorable aux OGM

Pour ces scientifiques, les cultures génétiquement modifiées ne présenteraient pas plus de risques environnementaux et pour la santé que les récoltes conventionnelles.

Après avoir analysé près de 900 études sur les organismes génétiquement modifiés (OGM), l’Académie américaine des sciences a rendu mardi 17 mai un rapport visant à « obtenir une nouvelle perspective sur l’ensemble des données portant sur les OGM et les cultures développées par des méthodes conventionnelles ». Les scientifiques concluent que les cultures OGM ne présentent apparemment pas plus de risques environnementaux et pour la santé que les récoltes conventionnelles.

Ils émettent cependant des réserves, admettant « la difficulté à détecter des effets subtils ou à long terme sur la santé ou l’environnement », des produits contenant des OGM. Mais, insistent-ils, les données existantes « n’ont pas décelé de différences dans les risques pour les humains entre les cultures OGM et les récoltes conventionnelles ». Ils font un constat similaire pour l’environnement, tout en reconnaissant le fait que les études épidémiologiques à long terme n’ont pas ciblé les effets de laconsommation de produits OGM comme le soja et le maïs ou des pommes et des pommes de terre.

Si la résistance développée par les insectes nuisibles à ces cultures est « un sérieux problème pour l’agriculture », relèvent-ils encore, il est évitable avec une stratégie adaptée.

Lire aussi :   Batailles et polémiques autour des nouveaux OGM

« Difficile de tirer des conclusions définitives »

Les auteurs insistent sur l’importance de recourir aux nouvelles technologies de la génomique pour détecter la moindre modification imprévue dans les caractéristiques des nouvelles variétés de récoltes. Et ce, que ces dernières soient génétiquement modifiées ou pas : les unes et les autres « doivent subir des tests de sécurité ».

Selon le rapport, certaines indications laissent penser que les récoltes OGM résistantes aux insectes seraient bienfaisantes. Elles permettraient de réduire l’usage des insecticides et n’ont pas réduit la diversité des plantes et des insectes dans les exploitations agricoles concernées.

Tout en précisant que des transferts de gènes de cultures OGM à des espèces sauvages se sont produits, les experts rappellent qu’aucun effet environnemental néfaste n’a été observé. Mais ils soulignent que « la complexité d’évaluer les changements à long terme dans l’environnement rend difficile de tirer des conclusions définitives ». Pour l’Académie des sciences, les agences de réglementation devraient avoir l’autorité d’imposer une surveillance environnementale pour des effets inattendus des cultures OGM.
En savoir plus sur http://www.lemonde.fr/planete/article/2016/05/17/l-academie-americaine-des-sciences-publie-un-rapport-favorable-aux-ogm_4921108_3244.html#lTpJlyO9QtytXCXf.99

Source : L’Académie américaine des sciences publie un rapport favorable aux OGM

Lo studio: i ricchi sono più solitari

Chi ha un reddito elevato passa in media 10 minuti in più in solitudine al giorno. I poveri hanno una rete sociale più forte fatta di familiari e vicini di casa. Lo dice un censimento che analizza i comportamenti degli americani.

Source : Lo studio: ecco perché i ricchi sono più solitari

Lo studio: ecco perché i ricchi sono più solitariA chiedersi come i soldi influenzino le amicizie sono state Emily Bianchi della Emory University e Kathleen Vohs dell'università del Minnesota, che hanno spulciato 30mila questionari nel General Social Survey, un censimento di lunga data che analizza abitudini e comportamenti degli americani. Nelle loro risposte, i partecipanti devono anche indicare i loro guadagni. Le conclusioni delle ricercatrici sono state pubblicate sulla rivista Social Psychological and Personality Science.

Chi guadagna 5mila dollari all'anno, rispetto a chi ne guadagna 131mila, passa 6,4 sere in più in compagnia ogni anno. I ricchi, ogni giorno, trascorrono 10 minuti in più in solitudine. Quando escono, i più danarosi trascorrono 5,2 serate in più con gli amici rispetto a chi non può permettersi ristoranti o aperitivi. Ma il 25% più ricco del campione, rispetto al 25% più povero, spende 4,6 sere in meno ogni anno con i familiari e 8,3 sere in meno con i vicini o i conoscenti del quartiere.

"Gli studi del passato - scrivono le autrici - avevano dimostrato che il denaro induce autosufficienza e riduce l'interesse per gli altri". Dal dopoguerra a oggi la cerchia delle relazioni sociali di un individuo medio si è andata sempre più restringendo. Il numero di persone che dichiarano di non avere amici intimi o familiari è raddoppiato tra il 1985 e il 2004. Tanto da spingere lo scienziato politico di Harvard Robert Putnam nel 2000 a pubblicare il suo controverso libro "Capitale sociale e individualismo". La colpa, in un primo momento, era stata data proprio al boom economico. "Ma il nostro studio - allargano il discorso Bianchi e Vohs - rivela che il reddito è legato anche alle persone con cui si decide di passare il proprio tempo".

La spiegazione più logica che le due ricercatrici offrono è che più si è poveri più si ha bisogno della famiglia e dei vicini per guardare i bambini, riparare un elettrodomestico, rimediare un passaggio, tagliare il prato. E che difficilmente genitori o cugini accetterebbero di dare una mano se li si vede solo in occasione delle feste. "Chi ha risorse finanziarie limitate - concludono le ricercatrici - preferiscono le relazioni in cui si dà e si riceve aiuto".

Les fourmis sont des guerrières hors pair

Des chercheurs ont mis en scène quatre espèces invasives, montrant leurs stratégies pour gagner un territoire.

Le laboratoire a été transformé en champ de bataille pendant 42 jours. Les paris ont été pris. Et les troupes se sont affrontées sans relâche jusqu'à ce qu'il ne reste plus qu'un vainqueur. La force brute a été utilisée, morsures ou fractures, et aussi des armes chimiques. Plusieurs batailles ont eu lieu: s'il y a eu sur les quatre armées en lice la même vaincue à chaque duel, les vainqueurs eux ont «tourné». Ce n'est pas pour jouer que les chercheurs de l'ESE (laboratoire d'Écologie, Systématique, Évolution, universLinepithema humile, la fourmi d'Argentine, est originaire d'Amérique du Sud. Cette espèce a colonisé l'ensemble du bassin méditerranéen (Italie, sud de la France, Espagne).ité Paris-Sud-CNRS-AgroParis Tech) ont mis en scène ces affrontements entre quatre espèces de fourmis parmi les plus dangereuses au monde car très agressives et envahissantes. L'invasion biologique est la deuxième menace principale pour la biodiversité après la perte d'habitat. Les scientifiques voulaient savoir comment, à la suite du changement climatique entre autres, ces espèces pouvaient coloniser de nouvelles régions, détruisant les espèces endémiques. Et trouver la meilleure façon d'y remédier.

Modèles prédictifs

Les colonies de fourmis «cobayes», comptant chacune 300 ouvrières et une reine ont été placées dans des boîtes de 55 × 35 × 25 cm (ce qui à l'échelle des fourmis de quelques millimètres est un immense champ). Ces nids étaient remplis d'un substrat (sol, bois, feuilles), de différents points d'eau et de quelques objets (petits blocs de polystyrène). Un tube de 1 cm de diamètre et de 10 de long, muni de coton, permettait de relier les différents groupes entre eux.

Un podium a tout de même été établi selon le nombre de victoires gagnées dans les duels, en termes de pertes fourmilières de chaque colonie. En haut du podium, W. auropunctata, la toute petite fourmi électrique (prélevée en Nouvelle-Calédonie). Derrière, venues du sud de la France,L. neglectus, la fourmi des jardins, et L. humile, la fourmi d'Argentine, sont deuxième et troisième. La grande perdante est P. megacephala, la fourmi à grosse tête (Nouvelle-Calédonie), inexorablement décimée, bien qu'elle possède naturellement 10 % de soldats.

«Cela va aider à affiner des modèles prédictifs en cas d'invasion», explique Franck Courchamp, de l'ESE, responsable de l'étude. «Car nous avons constaté qu'en fonction du contexte et du temps passé les stratégies peuvent être complexes et changer.» Ainsi, les deux espèces les plus résistantes (auropunctata et neglectus) ont eu tendance à employer l'arme chimique (un venin qu'elles peuvent projeter) tandis que les deux autres préféraient le corps à corps physique. Autre différence, megacephala et neglectus passaient immédiatement à l'attaque dans le camp adverse tandis que les deux autres tenaient d'abord des positions défensives avant de s'aventurer prudemment ailleurs. Résultat, plus une colonie de fourmis adoptait la stratégie des Huns, se voulant les émules d'Attila, plus la mortalité de ses troupes était élevée.

«Stratégie machiavélique»

Toutefois, «dans une dernière expérience mettant en concurrence les quatre colonies simultanément, quatre nids et un espace de fourragement commun, le classement des espèces a été complètement différent, raconte Franck Courchamp. Plus malignes, ou moins agressives, les fourmis à grosse tête, jusqu'ici dernières des duels, ont adopté une stratégie machiavélique digne des plus grands stratèges militaires: elles ont attendu en retrait que les trois autres se soient étripées avant d'entrer en scène pour porter le coup de grâce aux autres armées dont les régiments étaient dévastés.»

Les comportements individuels des fourmis sont très différents de l'une à l'autre, selon qu'elles sont seules ou pas, qu'elles se sentent ou non plus fortes que leur adversaire. Certaines travaillent mieux en groupe. D'autres savent «faire le mort». «Nous voulions au départ les cinq espèces les plus dangereuses, se souvient Franck Courchamp. Mais nous n'avons pas pu avoir les autorisations, par crainte de dissémination, pour faire venir un “monstre” de la catégorie, la fourmi de feu (S. invicta), qui ravage le sud-est des États-Unis et, de plus, a des piqûres extrêmement douloureuses.» On ne rigole pas avec les fourmis.

Source : Les fourmis sont des guerrières hors pair

Comment mesurer l’amour 

L’homme a pris la mesure du monde, au sens propre comme au figuré. Il l’arpente autant qu’il le soupèse, il l’évalue, le mètre et le calcule. Il a créé des échelles pour presque tout : l’échelle de Beaufort pour la vitesse des vents, l’échelle de Saffir-Simpson pour l’intensité des cyclones, l’échelle de Turin pour la menace que font peser les astéroïdes sur la Terre, des échelles de température (Kelvin, Celsius, Farenheit, Réaumur, etc.), l’échelle de Kinsey pour l’orientation sexuelle,

l’échelle de Bristol pour la typologie des excréments humains (à déconseiller à l’heure des repas), etc. Et, il fallait bien que cela arrive, Homo sapiens a aussi inventé une échelle pour mesurer l’immesurable, classifier l’inclassifiable, rationaliser l’irrationnel de la passion amoureuse, voir de combien de centimètres s’enfonce la flèche de Cupidon.

 

Titanic

Image du film "Titanic", de James Cameron. © Paramount Pictures/20th Century Fox.

Pour ma part, j’en étais resté au « Je l’aime, un peu, beaucoup, passionnément, à la folie, pas du tout » des amours enfantines effeuilleuses de marguerites. Mais, cela n’était visiblement pas assez précis, pas assez "quantifiant" pour nos amis en blouse blanche. J’ai découvert l’échelle de l’amour passionnel il y a quelques années au détour d’une étude assez amusante publiée dans PLOS One : des chercheurs y établissaient que, chez des jeunes gens très amoureux, la douleur provoquée par une brûlure était fortement atténuée dès lors que leurs cobayes regardaient une photographie de l’être aimé, un phénomène mettant en jeu le système de récompense installé dans notre cerveau. En lisant cela, je me suis demandé comment on pouvait, objectivement, recruter des personnes très amoureuses. Je me suis donc intéressé à la partie méthodologique de cette étude et j’ai constaté que, pour être sélectionnés, les quinze sujets avaient dû obtenir un score élevé sur la Passionate Love Scale (PLS) qui fête ses trente ans cette année.

Cette échelle de la passion a sans doute déjà due être surexploitée par les magazines féminins tant elle ressemble aux fameux tests psycho « Êtes-vous vraiment amoureuse ? » qui vous font passer le temps dans la salle d’attente du dentiste. J’ai retrouvé l’article original racontant comment cette elle a été très sérieusement mise au point, testée et validée comme fiable. Publié en 1986 dans le Journal of Adolescence, cet article est l’œuvre d’une psychologue et d’une sociologue américaines, Elaine Hatfield et Susan Sprecher. Elles y expliquent comment elles ont intégré dans ce test des composants cognitifs, émotionnels et comportementaux. À partir de ces éléments, elles ont rédigé 165 items dont, au final, seulement 30 ont été retenus pour la PLS normale, et 15 pour la PLS abrégée.

Intéressons-nous à cette dernière. Vous voilà donc en face de 15 affirmations, allant de « Je me sentirais désespéré(e) si Trucmuche me quittait » à « Je sens que mon corps réagit quand Trucmuche me touche ». Il faut noter chacune de ces affirmations de 1 à 9, 1 signifiant « Pas vrai du tout » et 9 « Entièrement vrai ». Faites le total. Si vous avez obtenu entre 106 et 135 points, vous êtes dans la partie la plus extrême et la plus chaude de la passion : vous ne pouvez pas vous empêcher de penser à Trucmuche et, si on vous enfonce des aiguilles rouillées et chauffées à blanc sous les ongles, la simple vue d’une photo de Trucmuche vous ôte toute sensation de douleur... Entre 86 et 105 points, c’est encore le grand amour, avec tout de même moins d’intensité. Plus le score baisse, plus les bouffées passionnelles se font rares. Enfin, si vous avez totalisé moins de 45 points, Trucmuche ne vous attire pas plus qu’une méduse échouée sur une plage. Vous pouvez le (ou la) larguer et vous inscrire sur Meetic. C’est la science qui vous le dit.

 

Source : Comment mesurer l’amour | Passeur de sciences

Une étude détermine le meilleur moment pour passer un examen


Une étude publiée par l’Académie américaine des sciences révèle le meilleur moment de la journée pour passer et réussir un examen. Au-delà d’une certaine heure, la moyenne chute.

Source : Une étude détermine le meilleur moment pour passer un examen


Les analyses révèlent que passé 8h du matin, un élève perd en moyenne 1% de sa note, chaque heure.

Une étude publiée par l’Académie américaine des sciences révèle le meilleur moment de la journée pour passer et réussir un examen. Au-delà d’une certaine heure, la moyenne chute.

Existe-t-il un bon moment pour passer un examen? D’aucuns vous répondront qu’il n’en existe pas. Ce n’est pas le cas des chercheurs du Centre pour la recherche sociale danoise. Dans leur dernière étude, ces derniers démontrent que la meilleure période serait le matin. Nos fonctions cognitives seraient au maximum de leurs capacités.

Cela équivaut à 10 jours d’absence scolaire

Pour réaliser cette étude, les chercheurs ont analysé plus de 2 millions de résultats d’examens, passés par des enfants âgés de 8 à 15 ans. Ils ont ainsi répertorié l’heure et le jour durant lequel le test était passé. Les analyses révèlent que passé 8h du matin, un élève perd en moyenne 1 % de sa note, chaque heure. Cela ne paraît pas beaucoup, mais en réalité cela équivaut à 10 jours d’absence scolaire. Logiquement les élèves en difficulté sont les plus sensibles à cet élément.

Les chercheurs ont conclu que les étudiants étaient plus efficaces au petit matin car ils ne sont pas fatigués des heures de cours et autres activités. Le Huffington Post rapporte une déclaration du docteur Hans Henrik Sievertsen, chercheur spécialisé dans l’éducation et principal auteur de l’étude. «S’ils ont un examen tard dans la journée, il faut prendre en compte le fait qu’ils sont restés 4h en classe avant» explique-t-il.

Faire des pauses permet de booster sa productivité

Cette étude confirme les informations déjà établies concernant la fatigue cognitive, qui se déclare lorsque nous dépensons de l’énergie en faisant des tâches qui demandent de la réflexion. Le docteur Sievertsen précise. «Notre habilité à nous concentrer, prendre des décisions et réagir est affectée par la fatigue cognitive, et les études ont démontré que des pauses peuvent booster la productivité».

Prendre des pauses peut donc faire la différence et améliorer les résultats d’un étudiant. Entre 20 et 30 minutes sont nécessaires pour augmenter environ 1,7% de la note. Actuellement les chercheurs tentent d’identifier quel genre de pause est la plus bénéfique entre manger une friandise, laisser son esprit divaguer ou encore aller se balader à l’air frais...

Vu dans : http://etudiant.lefigaro.fr/les-news/actu/detail/article/le-meilleur-moment-pour-passer-un-examen-est-le-19371/

La "Robin Hood" della scienza, 47 milioni di articoli accademici pubblicati online

http://www.repubblica.it/scienze/2016/02/23/news/pubblicazioni_scientifiche-134065467/
Alexandra Elbakyan, una programmatrice kazaka stufa dei costi esorbitanti delle riviste scientifiche, ha fondato Sci-Hub. Dopo le denunce dell'editore Elsevier, il sito originale è stato costretto a chiudere. Ma lei non si è arresa: l'ha riaperto usando un altro indirizzo e ha aggiunto anche una versione nel deep web

___________________di ROSITA RIJTANO__________________________

L'HANNO definita la Robin Hood della scienza. Tanto che sulla bacheca del suo profilo Facebook c'è persino una proposta per candidarla al Nobel, più decine di messaggi di ringraziamento. Arrivano dal Pakistan, dall'India, dalla Colombia. Chi la considera un modello, chi un'eroina, chi una delinquente. Ma la rossa Alexandra Elbakyan delude le attese: non è niente di ciò. Ha solo le idee molto chiare: leggere le riviste scientifiche a pagamento costa troppo, l'informazione è potere, la conoscenza deve essere accessibile. A tutti. Così ha riversato nel web 47 milioni di articoli accademici, mettendoli a disposizione di chiunque, gratis. Ed è agguerrita, non ha alcuna intenzione di fermarsi, nonostante le ripetute denunce di Elsevier: il maggiore editore scientifico e medico del mondo.

Una battaglia iniziata nel 2011. Per necessità. "Stavo preparando la tesi di laurea", ci racconta. "E dovevo consultare quasi cento paper. Il costo di ognuno di loro è di circa 20 dollari: una follia". Da qui l'esigenza di bypassare i blocchi. È la nascita di Sci-Hub: un programma che permette di ottenere le ricerche protette da abbonamento attraverso i network universitari. Il funzionamento: quando un utente chiede uno degli articoli in questione, il servizio lo scarica da un ateneo sottoscritto a quel determinato database. Ne consegna una copia a chi l'ha richiesta. E un'altra la conserva nei propri server, in modo che rimanga a disposizione. "All'inizio il sistema non aveva l'obiettivo di liberare la conoscenza. Era solo uno strumento per facilitare la vita dei ricercatori, semplificando il download: rendendolo più veloce e conveniente". Poi il cambiamento. Il nuovo motto adottato? "Rimuovere tutte le barriere sulle vie della scienza".

A partire da questo momento, come si legge nella descrizione in homepage, Sci-Hub diventa il "primo sito al mondo a fornire accesso pubblico, e di massa, a decine di milioni di ricerche". E Elbakyan un personaggio leggendario nella comunità. Metà campionessa, metà banditessa. Con relativi grattacapi legali. La denuncia del colosso Elsevier arriva la scorsa estate. L'accusa è di "pirateria e violazione del diritto d'autore". All'azienda di base ad Amsterdam dà ragione un giudice del New York Southern District Court: il dominio sci-hub.org viene chiuso. Però mica finisce qui: a fine 2015 la giovane kazaka riapre i battenti usando un altro indirizzo, sci-hub. io, che ora conta 30mila utenti attivi al giorno. E per ridurre il rischio shut down ne crea anche una versione .onion, cioè nel deeb web: la faccia meno nota di Internet, raggiungibile solo tramite Tor, il sistema di comunicazione anonima. Quali sono le motivazioni dietro tanto ardore? "Da pirata devota credo che il copyright vada completamente abolito. Soprattutto nell'era di Internet, la concezione che qualcuno detenga il diritto di monopolio per le riproduzioni è ridicolo. Ricopiare costituisce l'essenza del modo in cui impariamo, perciò quella vigente è una forma mentis particolarmente contraddittoria nelle scienze e nell'educazione".

Un attacco al cuore dell'attuale sistema divulgativo. Che non scontenta solo lei. Non solo per gli stessi motivi. Per avere idea basta dare un'occhiata ai forum degli studiosi, o a Twitter, dove gli studenti si organizzano per aggirare i paywall usando addirittura degli hashtag, come #icanhazpdf. Del malcontento se n'è resa conto pure l'Unione Europea che ha imposto accesso aperto a tutte le analisi finanziate dalla comunità. Perché a mutare in questi anni sono stati i parametri di valutazione. Se prima la pubblicazione su una rivista stimata era considerata una tappa di successo nella propria carriera, con la Rete non più. Per i ricercatori è di gran lunga più importante che il loro lavoro venga letto, condiviso, citato. E un meccanismo a pagamento, che blinda il prodotto, non è di certo il massimo in tal senso. Per non parlare del gap che gli abbonamenti creano tra le università facoltose e le meno abbienti, impossibilitate a far fronte ai prezzi esorbitanti richiesti.

Un muro che si frappone tra scienziati e sapere. In cui una prima breccia l'ha aperta Aaron Swartz con il Guerilla Open Access Manifesto, dove scriveva: "L'intero patrimonio scientifico e culturale che appartiene a tutto il mondo, pubblicato nel corso dei secoli in riviste e libri, adesso viene digitalizzato e chiuso con il lucchetto da un pugno di corporation". L'ultima fenditura è merito di Alexandra. Oggi il muro scricchiola. "Si tratta di azioni dimostrative che fanno luce su un'istanza molto giusta: è necessario trovare una maniera migliore per ottenere la conoscenza, rispetto a quella che implica il pagamento", commenta Stefano Zanero, membro del consiglio d'amministrazione dell'IEEE Computer Society, una delle più grandi società scientifiche del globo. "Ma se dobbiamo cambiare il meccanismo economico che sta dietro le pubblicazioni, bisogna farlo

con criterio. Si deve tener conto che ogni struttura editoriale, anche nel caso delle no-profit, ha dei costi: raccolta e organizzazione dei contenuti, processo di revisione, mantenimento dell'archivio e così via. E la soluzione proposta da Elbakyan non sembra a lungo termine".

Aller à la barre d’outils