Processus d’évaluation : « Etre premier en ordre de passage vous pénalisera »

Processus d’évaluation : « Etre premier en ordre de passage vous pénalisera »

Une expérience américaine montre que les évaluateurs octroient de meilleurs scores au fil du temps, observe Charles Cuvelliez, professeur en communication, dans une tribune au « Monde ». Un biais cognitif qui pèse lourdement sur la rationalité de nos décisions.

Si décider de votre horaire de passage à un concours vous a toujours angoissé, vous avez bien raison car c’est loin d’être un détail sans influence sur le résultat. C’est la leçon d’expériences menées par deux chercheurs de l’université de Virginie, qui ont mis en évidence un nouveau biais cognitif (« Do Evaluations Rise With Experience ? » Kieran O’Connor, Amar Cheema, Psychological Science n° 29/5, 1er mars 2018).

Ils ont demandé à un groupe de 168 étudiants de donner un score à dix histoires qu’on leur demandait de lire, à raison d’une histoire par jour, de façon à étaler le processus d’évaluation dans le temps. L’ordre dans lequel les histoires leur étaient données différait selon les étudiants. Or, ce sont les histoires lues dans les derniers jours qui ont eu le meilleur score, peu importe laquelle.

En fait, la note attribuée avait tendance à monter jour après jour. On leur a ensuite demandé, au fur et à mesure qu’ils avançaient dans leur évaluation des dix histoires, de juger la difficulté de cette tâche d’évaluation. Véracité, style, contenu, genre, chacun avait des critères d’évaluation différents, mais tous étaient d’accord pour dire que la tâche devenait plus facile avec le temps.

C’est ce qui fait penser aux chercheurs que notre cerveau confond inconsciemment la facilité à donner un score avec le score lui-même, comme si quelque chose qui devient (plus) facile à évaluer était forcément meilleur ! Et si l’on peut parler de « biais cognitif », c’est parce que les participants étaient persuadés d’évaluer de la même manière au début du test comme à la fin.

L’objectivité existe-t-elle ?

Si on fait le bilan de toutes les situations où une estimation s’étale dans le temps, cette expérience est riche d’enseignements. Passer le premier ou le dernier à l’épreuve orale, c’est un dilemme auquel tous les étudiants font face.

Source : Le Monde

 

Differences between Bernoulli's Principle and the Coanda

What are the differences between Bernoulli's Principle and the Coanda effect when we apply them on aircraft wings?

Some people claim that lift is due to the Coanda effect. Those people are wrong. They do not understand the basis of Coanda effect. I’ll come back to this.

Bernoulli’s principle is a mathematical calculation that relates flow speed to pressure under certain circumstances. Although there are restrictions on how you can use it, it can be used to help you figure out the pressure on the wing when you know the speed of the fluid near the wing. All by itself, it does not explain lift. It is a small tool that is part of figuring out how much lift will occur. But it’s just a calculation tool.

I am not going to try to explain how a wing creates lift. That is a very multifaceted topic and has lots of subtleties. It would take me teaching you about two or three full length graduate level courses in fluid dynamics after you already have a superb understanding of physics and math at the undergraduate level to cover all that you need to really understand how a wing produces lift. That’s why all the attempts on the internet fail. Some of them get parts of it right. Some of them are misleading. Some of them are misguided. Some of them get everything wrong. I’m not going to attempt it. I would fail too.

But I can try to explain what the Coanda effect is and how it works. When you understand how it works, it is apparent that it has nothing to do with lift generation on a wing. It’s simply irrelevant. It does not apply to flow past a wing. I expect to get resistance from the people who think they understand Coanda effect and therefore think it explains lift. It doesn’t.

Here is a definition of Coanda effect from Websters Dictionary that is quoted on Wikipedia (Coandă effect - Wikipedia):

“the tendency of a jet of fluid emerging from an orifice to follow an adjacent flat or curved surface and to entrain fluid from the surroundings so that a region of lower pressure develops.”

This is a description of what happens due to the Coanda effect. It tells you what people observe. It doesn’t tell you why it happens.

People looking at fluid flowing in the Coanda effect notice the flow following a curved surface and say, “ooooh, that’s just like flow past the curved surface of a wing. Surely this air following the curve of the wing (and the change of its momentum as its velocity changes direction) explains the generation of lift.”

Wrong.

There are certainly some similarities. Sure, there is flow following the curve. Sure, there is a deflection of the velocity. Sure, there are suction pressures acting on that surface (that can be related to the velocity by Bernoulli’s principle). But it’s just a resemblance. It’s not an explanation. On the wing there is no Coanda effect. It just looks like the Coanda effect. We need to understand how the Coanda effect works.

How the Coanda Effect Works.

When you squirt a jet of fluid (could be water, could be air, could be most liquids or gases, they are all fluids) into a large body of non-moving fluid, that jet of fluid will start to interact with the big stationary body of fluid. It will start to mix with it and start to move it along too.

Think of a water jet coming out of the wall of a Jacuzzi. If you hold your hand in front of the opening, you feel a small concentrated blast of high speed water. If you hold your hand further away, you feel a broader region of water moving more slowly. If you hold your hand even farther away, you feel a general flow of all the water in the region. This interaction with stationary fluid is what the Coanda effect is all about. That is absent in the flow over a wing (and don’t give me any BS about the boundary layer on the wing being slow moving fluid - that’s almost the inverse of what is happening here. And it’s certainly not present in potential flow).

So this narrow jet of high speed fluid is emerging from the nozzle and is surrounded by stationary fluid. By viscous stresses and turbulent mixing, it drags along some of that stationary fluid and gets it moving too. That is, it speeds up a layer of fluid next to itself. By reaction (Newton, you know) that slows down the fluid in the jet. After all, momentum is conserved. So the fast moving narrow jet starts to broaden into a wider jet of slower moving fluid. But it’s dragging that fluid along from somewhere. It’s moving it away from where it started. That leaves a sort of hole behind. That fluid that is removed has to be replaced. It sucks in fluid laterally from farther away from the jet. This keeps happening all along the length of the jet. More and more fluid is being pushed along and therefore more and more fluid has to be sucked in from the sides. Later on, I’ll try and find some photographs showing this effect, which is called entrainment. The jet entrains surrounding fluid. That just means it sucks it in from the sides and shoves it forward.

This sucking inward of surrounding fluid - that is what causes the Coanda effect. Note that I have not mentioned any walls yet, curved or otherwise. I’ve just talked about a jet of fluid sucking in surrounding fluid.

What happens if we block that inward flow of the surrounding fluid by putting a wall on one side near the jet? The wall is parallel to the direction the jet is moving. This wall can be straight. No need for any curved surfaces. The curved surfaces that are associated with many descriptions of the Coanda effect are just distractions. There is no need for the surface to be curved for the Coanda effect to work. All you need is a jet of fluid that is trying to suck in the surrounding fluid and a wall that blocks that flow of fluid towards the jet. Actually, you don’t even need a wall. Two jets flowing side by side will each suck towards the other one as though there were a wall between them. That’s still the Coanda effect.

So what happens? The jet can’t pull fluid in from that direction where the wall is, but the suction effect that would have pulled that fluid in from that side still exists. It’s a low pressure region. Instead it pulls the jet over to that wall. The jet deflects over towards the wall and then flows along the wall. It’s doing that because it’s trying to entrain the fluid over there and it can’t. It’s only creating the suction effect because it is accelerating fluid that is not moving and getting it going in the direction of the jet. It’s entraining fluid. Or trying to. So the jet sucks itself over to the wall and then runs along the wall. Mind you, it’s still entraining fluid from the other sides of the jet.

None of this entrainment occurs with a wing because all the air is already moving at essentially the same speed. There is no mixing with stagnant fluid. There is none of this sucking in of fluid that is replacing fluid that has been entrained by the jet. There is no jet. All the air is moving. There just happens to be this curved surface (the top of the wing). It vaguely looks like the description of the Coanda effect. But there’s no Coanda effect. Sorry, there’s just confusion. And belief. And proselytizing. It’s amazing how strongly some people will hold to their belief based on a misunderstanding of the underlying physics.

So, your question is:

What are the differences between Bernoulli's Principle and the Coanda effect when we apply them on aircraft wings?

The answer is that these are not commensurate concepts and cannot be compared. One is a mathematical relation between speed and pressure. The other is a phenomenon associated with mixing around a jet of fluid blasting into stationary fluid.

How do you apply them to a wing? Well, Coanda does not apply to a wing, so you can’t. Bernoulli’s principle can be used as part of the analysis that converts velocities near a wing into pressures acting on the wing. Those pressures can be integrated to give you an estimate of the lift on the wing. That’s a very small part related to the generation of lift on a wing.

Source : Kim Aaron

Tableau des Troubles Dys

 

 

On regroupe sous “troubles Dys” les troubles cognitifs spécifiques et les troubles des apprentissages qu’ils induisent.

Les troubles cognitifs spécifiques apparaissent au cours du développement de l’enfant, avant ou lors des premiers apprentissages, et persistent à l’âge adulte.

Ils ont des répercussions sur la vie scolaire, professionnelle et sociale, et peuvent provoquer un déséquilibre psycho-affectif. Leur repérage, leur dépistage et leur diagnostic sont déterminants.

Lire la suite : http://www.ffdys.com/troubles-dys

Physionary - a scientific version of Pictionary

Physionary - a scientific version of Pictionary

N. Poljak, A. Bosilj, S. Brzaj, J. Dragovic, T. Dubcek, F. Erhardt, M. Jercic
Physics department, University of Zagreb

Abstract. We describe a variant of the popular game “Pictionary” based on the terms used in elementary and high school physics. We believe that the drawing of physical terms helps students develop a deeper understanding of physical concepts behind them, as well as apply them in everyday situations.

1. Introduction

The Croatian Physical Society organizes the annual Summer school for young physicists [1], intended to reward elementary and high school students for their accomplishments on the national physics competitions. The schools typically consists of half-day lectures combined with workshops, experiments or games that take place during leisure hours. For the last three editions of the summer schools, we developed a variant of the popular game ”Pictionary” as a small competition for the students. “Physionary”, as we named the variant, has proven to be very successful in entertaining the students, not only during the evenings intended for the competition, but also during the rest of leisure time.

2. Game description

“Physionary” is a game loosely derived and expanded from the commercially-distributed “Pictionary”. A similar game was developed earlier for University biology students [2], however, we expanded further on the game since we found it beneficial to do so.

The students are divided into groups based on their age and are given a number of cards, each containing 6 terms from elementary or high school physics. The terms are taken from indices of physics curricula or physics manuals and divided into 5 sets of cards, one for each high school grade and one for elementary school grades. A dice is thrown to randomly select the ordinal number of the term on the card. A one minute timer is started and one of the students from each group is required to draw the term found on his/her card, while the rest of the group has to guess what term it is. If the team accomplishes this within the given time allotment, they receive a point. Several rounds are played this way before the pace of the game is then made faster by decreasing the available time for drawing. After a predetermined number of rounds played in this manner, the second phase of the game begins. In this phase, the students don’t draw the terms but instead try to “act out” the term given on their cards, as it is usually done in charades. This is also done within a given time allotment, typically set to a minute.

This game turned out not to be only entertaining, but also highly educational. Sometimes, a specific term may not be recognized by some of the members of a certain group. However, we noticed that the said term is quickly taken in by those members, as evidenced by their future recognition of that, as well as similar terms. Once the students start to communicate concepts pictorially, they move from their definitions and try to use everyday examples to convey them to their group. We have also noticed that a sense of connection between various terms is formed, since the students find it beneficial to explain a new term with the help of terms that they have already drawn on paper - they simply circle the term that was already guessed by the group. Finally, the students were often found drawing graphs and diagrams, which is a skill they need to develop in physics, but are often not motivated to do so.

3. Conclusion

We have expanded on the known popular party games to
create an effective and entertaining physics learning tool.
The skills developed during game play seem to be beneficial
to the students and the terms they are required to draw or
act out are taken from their curricula. The students seem
to develop another important skill during the game - using
simple physical concepts in everyday situations, which is a
skill they are most often found lacking. In what follows, we
present a selection of 10 terms (out of 850) from each of the
5 sets of cards. We have limited the selection to 10 terms
since we expect that different countries will have differing
curricula, so we thought it best that everyone interested
made their own sets of cards. Figure 1: An example of a

playing card.

References

[1] http://www.hfd.hr/ljetna skola/
[2] Kathleen A. Parson, John S. Miles, “Bio-Pictionary – a scientific party game which helps to develop pictorial communication skills”, Journal of Biological Education, 28:1, 17-18, DOI:10.1080/00219266.1994.9655358


elementary

1st grade

2nd grade

3rd grade

4th grade

heat insulator surface area power mass sliding friction Solar energy pulley molecule cavity electricity

joule frequency dynamics buoyancy unit
fluid projectile motion cosmic speed energy Galileo

diffusion capacitor inductivity linear expansion Lorentz force work
ideal gas insulator interaction isobar

diffraction rainbow standing wave intensity sound rotation length contraction phase
lens
light guide

plasma atom antiparticle semiconductor fractal boson
red giant mass defect butterfly effect quark

Table 1. A sample from the terms given on the “Physionary” cards, sorted in 5 classes according to students’ grade.

Let’s have a coffee with the Standard Model of particle physics

Let's have a coffee with the Standard Model of particle physics!

Julia Woithe1,2Gerfried J Wiener1,3 and Frederik F Van der Veken1

Published 30 March 2017 
Physics EducationVolume 52Number 3 
Focus on Nuclear and Particle Physics

 Article PDF

Abstract

The Standard Model of particle physics is one of the most successful theories in physics and describes the fundamental interactions between elementary particles. It is encoded in a compact description, the so-called 'Lagrangian', which even fits on t-shirts and coffee mugs. This mathematical formulation, however, is complex and only rarely makes it into the physics classroom. Therefore, to support high school teachers in their challenging endeavour of introducing particle physics in the classroom, we provide a qualitative explanation of the terms of the Lagrangian and discuss their interpretation based on associated Feynman diagrams.

Export citation and abstract BibTeX RIS

Original content from this work may be used under the terms of the Creative Commons Attribution 3.0 licence. Any further distribution of this work must maintain attribution to the author(s) and the title of the work, journal citation and DOI.

1. Introduction

The Standard Model of particle physics is the most important achievement of high energy physics to date. This highly elegant theory sorts elementary particles according to their respective charges and describes how they interact through fundamental interactions. In this context, a charge is a property of an elementary particle that defines the fundamental interaction by which it is influenced. We then say that the corresponding interaction particle 'couples' to a certain charge. For example, gluons, the interaction particles of the strong interaction, couple to colour-charged particles. Of the four fundamental interactions in nature, all except gravity are described by the Standard Model of particle physics: particles with an electric charge are influenced by the electromagnetic interaction (quantum electrodynamics, or QED for short), particles with a weak charge are influenced by the weak interaction (quantum flavour dynamics or QFD), and those with a colour charge are influenced by the strong interaction (quantum chromodynamics or QCD). Contrary to the fundamental interactions, the Brout–Englert–Higgs (BEH) field acts in a special way. Because it is a scalar field, it induces spontaneous symmetry-breaking, which in turn gives mass to all particles with which it interacts (this is commonly called the Higgs mechanism). In addition, the Higgs particle (H) couples to any other particle which has mass (including itself).

Interactions are mediated by their respective interaction particles: photons (γ) for the electromagnetic interaction, the weak bosons (WW+ , and Z0) for the weak interaction, and gluons (g) for the strong interaction. Furthermore, an elementary particle can be influenced by more than one fundamental interaction, in which case it has several charges (see figure 1). For example, due to its electric and weak charges, a muon is influenced both by the electromagnetic interaction and the weak interaction.


Figure 1.

Figure 1. Matter particles can be divided into three groups: quarks (q) and antiquarks ($\bar{q}$ ); electrically charged leptons ($\ell $ ) and antileptons ($\bar{\ell}$ ); neutrinos (ν) and antineutrinos ($\bar{\nu}$ ). Gluons (g) couple to colour charge, which only quarks, antiquarks, and gluons themselves, have. Photons (γ) couple to electric charge, which is found in (anti)quarks and electrically charged (anti)leptons. The weak bosons (WW+ , Z0) couple to the weak charge, which all matter particles have. Weak bosons can also interact with the photon (but this is a pure weak interaction, not an electromagnetic one). And finally, the Brout–Englert–Higgs field interacts with particles that have mass (all particles except the gluon and the photon).

 Standard image High-resolution image Export PowerPoint slide

The development of the Standard Model of particle physics started in the early 1970s and has so far withstood every experimental test. The latest success was the verification of the Brout–Englert–Higgs field by ATLAS and CMS at CERN's Large Hadron Collider in 2012. Both experiments successfully detected the quantised excitation of the BEH field—the so-called Higgs boson. This confirmed the Higgs mechanism, which associates elementary particles with their respective mass.

One might think that, given this great success story, the particle physics community is happy and content. But, as a matter of fact, the exact opposite is the case! While the Standard Model of particle physics provides a unique and elegant description of fundamental interactions between elementary particles, it is assumed that this quantum field theory is only part of a broader theory. Indeed, the Standard Model of particle physics describes only about 5% of the universe. It does not explain dark matter, which accounts for approximately 25% of the universe—not to speak of dark energy, which supposedly adds the remaining 70% of the universe. Their description can only be achieved by theories which go beyond the Standard Model of particle physics. Hence, any signs of irregularities between the predictions of the Standard Model of particle physics and experimental results would spark tremendous excitement. After all, this would enable the physics community to update and modify the current description of nature.

2. The Lagrangian

The mathematical formulation of the Standard Model of particle physics is complex. However, all information is encoded in a compact description—the so-called 'Lagrangian'. Nonetheless, this 'compact' formulation still fills several pages [1]. That is why an ultra-short, four-line version of the Lagrangian is also commonly shown. This particular formula draws a lot of attention and everyone who visits CERN will come across it at some point. For example, the CERN gift shop sells t-shirts and coffee mugs (see figure 2) featuring this four-line version of the Lagrangian. This can be especially challenging for physics teachers, who might then be asked by interested students to explain the meaning and the physics behind the Lagrangian. Therefore, we want to give a qualitative description of the individual terms of the Lagrangian, explain the fundamental processes behind them, and associate them to their respective Feynman diagrams.


Figure 2.

Figure 2. Lagrangian on a coffee mug.

 Standard image High-resolution image Export PowerPoint slide

Feynman diagrams are pictorial representations of the underlying mathematical expressions describing particle interactions. Even though particle physicists will use a set of 'Feynman rules' to translate a diagram into a mathematical expression, the diagram on its own is a useful tool to visualise and understand what is happening in a certain interaction without the need for mathematics. Every line in a Feynman diagram represents a particle, with different styles of line for the various types of particles. In this article, we additionally use different colours to indicate the associated interactions (see figures 1 and 3). Thus, a straight black line with an arrow denotes a matter particle, a wavy yellow line represents either a photon or a weak boson, a coiled green line corresponds to a gluon, and a dashed blue line indicates a Higgs boson. The time axis of a Feynman diagram is often oriented horizontally. However, the reading direction is only important for the physical interpretation, since all vertices can be rotated arbitrarily. Hereafter, we will read all Feynman diagrams from left to right with a horizontal time axis: lines starting on the left represent particles present before the interaction, and lines ending on the right represent particles present after the interaction. The arrow for matter particle lines should not be mistaken as an indicator of the direction of movement, since it only indicates whether the line belongs to a particle (with an arrow pointing to the right) or an anti-particle (with an arrow pointing to the left). Every vertex, where three or four lines meet, represents an interaction between particles. There are different possible vertices for QED, QFD, QCD, and BEH interactions, and these form the elementary building blocks of a Feynman diagram. In addition, Feynman diagrams are 'flexible': lines should not be understood as rigid, but as a combination of all possible paths a particle can take. Therefore, both individual lines and Feynman diagrams as a whole can be freely rotated.


Figure 3.

Figure 3. Some examples of Feynman diagrams that are included in $-\frac{1}{4}\,{{F}_{\mu \nu}}{{F}^{\mu \nu}}$ : gluon–gluon-interaction (3-gluon vertex and 4-gluon vertex), weak–weak interaction, and weak-photon interaction.

 Standard image High-resolution image Export PowerPoint slide

3. The elements of the Lagrangian

The Standard Model of particle physics is a quantum field theory. Therefore, its fundamental elements are quantum fields and the excitations of these fields are identified as particles. For example, the quantised excitation of the electron field is interpreted as an electron. From our viewpoint, it is not only permissible, but even advisable to speak directly of elementary particles instead of field excitations when discussing basic principles of particle physics qualitatively in high school.

A word of warning: as mentioned before, the Lagrangian is an extremely compact notation. Theoretical particle physicists normally know when to sum over which indices, what different abbreviations and derivatives mean, and when to consider each of the fundamental interactions. In the physics classroom, however, it is very difficult to achieve a deep-level understanding because the required mathematics skills go far beyond high-school level. Hence, we will only treat the ultra-short Lagrangian in figure 2 on a term-by-term basis, without detailing how different fields are combined inside these terms.

3.1. What does the $\mathcal{L}$  stand for?

$\mathcal{L}$  stands for the Lagrangian density, which is the density of the Lagrangian function L in a differential volume element. In other words, $\mathcal{L}$  is defined such that the Lagrangian L is the integral over space of the density: $L={\int}^{}{{\text{d}}^{3}}x~\mathcal{L}$ . In 1788, Joseph–Louis Lagrange introduced Lagrangian mechanics as a reformulation of classical mechanics. It allows the description of the dynamics of a given classical system using only one (scalar) function L  =  T  −  V, where T is the kinetic energy and V the potential energy of the system. The Lagrangian is used together with the principle of least action to obtain the equations of motion of that system in a very elegant way.

When handling quantum fields, instead of the discrete particles of classical mechanics, the Lagrangian density describes the kinematics and dynamics of the quantum system. Indeed, the Lagrangian density of quantum field theory can be compared to the Lagrangian function of classical mechanics. Hence, it is common to refer to $\mathcal{L}$  simply as 'the Lagrangian'.

3.2. Term 1: $-\frac{1}{4}\,{{F}_{\mu \nu}}{{F}^{\mu \nu}}$

This term is the scalar product of the field strength tensor ${{F}_{\mu \nu}}$  containing the mathematical encoding of all interaction particles except the Higgs boson, where μ and ν are Lorentz indices representing the spacetime components4. It contains the necessary formulation for these particles to even exist, and describes how they interact with each other. The contents differ depending on the properties of the interaction particles. For example, photons, the interaction particles of the electromagnetic interaction, cannot interact with each other, because they have no electric charge. Therefore, the contribution of the electromagnetic interaction consists only of a kinetic term, the basis for the existence of free photons. The description of gluons and the weak bosons also includes interaction terms in addition to the kinetic terms. Gluons, for example, are colour-charged themselves and can therefore also interact with each other (see figure 3). This leads to an exciting consequence: the Standard Model of particle physics predicts the existence of bound states consisting only of gluons, so-called 'glueballs'. However, no experiment has detected glueballs thus far.

3.3. Term 2: $\text{i}\bar{\psi}{\not D}\psi $

This term describes how interaction particles interact with matter particles. The fields ψ and $\bar{\psi}$ describe (anti)quarks and (anti)leptons5. The bar over $\bar{\psi}$  means that the corresponding vector must be transposed and complex-conjugated; a technical trick to ensure that the Lagrangian density remains scalar and real. ${\not D}$  is the so-called covariant derivative, featuring all the interaction particles (except the Higgs), but this time without self-interactions.

The beauty of this term is that it contains the description of the electromagnetic, weak, and strong interactions. Indeed, while all three fundamental interactions are different, the basic vertices by which they can be visualised look quite similar. We will start by discussing the most important interaction of our daily lives, the electromagnetic interaction. Here, pair production or annihilation of electrons and positrons, and the absorption or emission of photons by electrons, are prominent examples. All four of these processes can be represented using Feynman diagrams with the same basic vertex. For example, the left part of figure 4(a) shows the annihilation of an electron and a positron (remember that we use a reading direction from left to right). The next diagram is produced by rotating the first diagram by 180°, and is now a representation of pair production. Rotating the vertex further, we arrive at the third diagram, which describes the absorption of a photon by an electron. Last, the fourth permutation of the vertex gives the diagram for photon emission, also known as 'Bremsstrahlung'.


Figure 4.

Figure 4. Basic vertices of the electromagnetic interaction (a), strong interaction (b), and weak interaction (c). From left to right: examples of annihilation, pair production, absorption, and emission.

 Standard image High-resolution image Export PowerPoint slide

If we now look at the basic vertex of the strong interaction (see figure 4(b)), we notice that it looks very similar to the vertex of the electromagnetic interaction. For example, an anti-quark and a corresponding quark transforming into a gluon can be described as an annihilation process. In the reverse reading direction, this process can also be interpreted as pair creation, where a gluon transforms into a quark and an associated anti-quark. Additionally, by rotating the vertex further, we obtain the Feynman diagrams for gluon absorption and gluon emission.

Last but not least, the transformation processes of the weak interaction can be illustrated in a similar way as well (figure 4(c)). Again, depending on the orientation, the example represents annihilation or pair production of an electron and an anti-electron-neutrino, and absorption or emission of a Wboson. The weak interaction differs from the electromagnetic and the strong interactions in that it transforms one matter particle into another, for example an electron into an electron-neutrino and vice versa. We consider processes of the weak interaction involving a W boson to be particularly interesting for introduction in the classroom. For example, the transformation of a down-quark into an up-quark by emission of a virtual W boson, which itself transforms into an electron and an anti-electron-neutrino: ${{n}^{0}}\to {{p}^{+}}+{{e}^{-}}+\overline{{{\nu}_{e}}}$  is already part of many physics curricula [24] (see figure 5). In many physics textbooks this process is called 'beta-minus decay' (or in the case of ${{p}^{+}}\to {{n}^{0}}+{{e}^{+}}+{{\nu}_{e}}$ : 'beta-plus decay'). The emitted electron (or positron) is then introduced as 'beta radiation'. Here, we recommend using the term 'transformation' instead of 'decay', as this more accurately describes the physical process. In addition, doing so can prevent the triggering of misconceptions of the electron or positron as 'fragments' of the original neutron or proton. Instead of using the word 'beta radiation', we also recommend referring directly to emitted electrons (or positrons) to focus more strongly on the particle aspect of the transformation process.


Figure 5.

Figure 5. Beta transformation: a neutron's down-quark transforms into an up-quark, emitting a virtual W boson. The virtual W boson then transforms into an electron and an anti-electron-neutrino. Macroscopically, a neutron (n0) becomes a proton (p+). Note: the weak interaction allows only particle transformations between two specific elementary particles, so-called 'weak isospin doublets'. Prominent examples are the electron-neutrino and electron doublet $\left({{\nu}_{e}},{{e}^{-}}\right)$ , and the up-quark and down-quark doublet $(u,d)$ .

 Standard image High-resolution image Export PowerPoint slide

Overall, this second term of the Lagrangian is of special importance for our everyday life, and therefore merits discussion in the physics classroom. Indeed, apart from gravity, all physical phenomena can be described on a particle level by the basic vertices of the strong, weak, and electromagnetic interaction. Furthermore, given that the strong and weak interactions play a minor role in high-school curricula, almost all physical phenomena can be described using the basic vertex of the electromagnetic interaction (figure 4(a)). However, as discussed above, once this basic vertex is introduced, it is possible to draw connections to the basic vertices of the strong interaction (figure 4(b)) and the weak interaction (figure 4(c)) as well.

3.4. Term 3: $\text{h}.\text{c}.$

This term represents the 'hermitian conjugate' of term 2. The hermitian conjugate is necessary if arithmetic operations on matrices produce complex-valued 'disturbances'. By adding $\text{h}.\text{c}.$ , such disturbances cancel each other out, thus the Lagrangian remains a real-valued function. Actually, the addition of $\text{h}.\text{c}.$  is not required for term 2, since term 2 is self-adjoint. Therefore, this term is often omitted. Anyway, $\text{h}.\text{c}.$  should not be taken literally. Theorists often use it as a reminder: 'If a term changes when conjugating it, then add $\text{h}.\text{c}.$ ! If nothing changes (because it is self-adjoint), then add nothing'. This term does not have a physical meaning, but it ensures that the theory is sound.

Tip: we recommend the CERN-wide interpretation of term 3: $\text{h}.\text{c}.=\text{hot}\;\,\text{cof}\,\text{fee}$ . After all, the Lagrangian is printed on a coffee mug for a good reason. It is therefore advisable to take a break at half time with a mug of coffee. Afterwards, it will be easier to enjoy the full beauty of terms 4 to 7, which we explain next.

3.5. Term 4: ${{\psi}_{i}}{{y}_{ij}}{{\psi}_{j}}\phi $

This term describes how matter particles couple to the Brout–Englert–Higgs field phgr and thereby obtain mass. The entries of the Yukawa matrix yij represent the coupling parameters to the Brout–Englert–Higgs field, and hence are directly related to the mass of the particle in question. These parameters are not predicted by theory, but have been determined experimentally.

Parts of this term still cause physicists headaches: it is still not clear why neutrinos are so much lighter than other elementary particles, in other words, why they couple only very weakly to the BEH field. In addition, it is still not possible to derive the entries of the Yukawa matrix in a theoretically predictive way.

It is known that particles with high mass, in other words with a strong coupling to the Brout–Englert–Higgs field, also couple strongly to the Higgs boson. This is currently being verified experimentally at the LHC, where Higgs bosons are produced in particle collisions. However, Higgs bosons transform into particle–antiparticle pairs after about 10−22 s. Depending on their mass, i.e. their coupling parameter, certain particle–antiparticle pairs are much more likely, and thus easier to observe experimentally, than others. This is because the coupling parameter, which describes the coupling to the Higgs boson, is simply the mass of the particle itself. The Higgs boson is thus more likely to be transformed into pairs of relatively more massive particles and anti-particles. Measurements by the ATLAS detector show, for example, evidence of the direct coupling of the Higgs boson to tauons [5], see figure 6.


Figure 6.

Figure 6. A Higgs boson transforms into a pair of tauon and anti-tauon.

 Standard image High-resolution image Export PowerPoint slide

3.6. Term 5: $\text{h}.\text{c}.$

See term 3, but here this term is really necessary, since term 4 is not self-adjoint. While term 4 describes the interaction between a Higgs particle and matter particles, term 5, the hermitian conjugate of term 4, describes the same interaction, but with antimatter particles. Depending on the interpretation, however, we recommend at least one more mug of hot coffee.

3.7. Term 6: $|{{D}_{\mu}}\phi {{|}^{2}}$

This term describes how the interaction particles couple to the BEH field. This applies only to the interaction particles of the weak interaction, which thereby obtain their mass. This has been proven experimentally, because couplings of W bosons to Higgs bosons (figure 7) have already been verified. Photons do not obtain mass by the Higgs mechanism, whereas gluons are massless because they do not couple to the Brout–Englert–Higgs field. Furthermore, rotating the process depicted in figure 7by 180° leads to an important production mechanism of Higgs bosons in the LHC: the so-called 'vector-boson fusion' in which, for example, a W+ boson and a W boson transform into a Higgs boson (see figure 8).


Figure 7.

Figure 7. One example of a Feynman diagram that is encoded in $|{{D}_{\mu}}\phi {{|}^{2}}$ . A Higgs boson transforms into a pair of W+ and W bosons.

 Standard image High-resolution image Export PowerPoint slide


Figure 8.

Figure 8. Possible vector-boson fusion process from two colliding protons. A down-quark emits a W boson and an up-quark emits a W+ boson. The two W bosons transform into an electrically neutral Higgs boson.

 Standard image High-resolution image Export PowerPoint slide

3.8. Term 7: $-V\left(\phi \right)$

This term describes the potential of the BEH field. Contrary to the other quantum fields, this potential does not have a single minimum at zero but has an infinite set of different minima. This makes the Brout–Englert–Higgs field fundamentally different and leads to spontaneous symmetry-breaking (when choosing one of the minima). As discussed for terms 4 and 6, matter particles and interaction particles couple differently to this 'background field' and thus obtain their respective masses. Term 7 also describes how Higgs bosons couple to each other (see figure 9). The Higgs boson, the quantised excitation of the BEH field, was experimentally confirmed at CERN in 2012. In 2013, François Englert and Peter Higgs were awarded the Nobel Prize in Physics for the development of the Higgs mechanism.


Figure 9.

Figure 9. Diagrams of Higgs self-interaction (3-Higgs vertex and 4-Higgs vertex) that originate from $-V\left(\phi \right)$ .

 Standard image High-resolution image Export PowerPoint slide

4. Conclusions, and what about the second mug?

Our experience at CERN is that both high school students and teachers are greatly fascinated by the Lagrangian. Hence, introducing it in the classroom can contribute positively when discussing particle physics. However, due to the complex level of mathematical formalism used in the Lagrangian, it is probably not favourable to aim for a complete, in-depth discussion. Instead, we recommend starting with an introduction to the individual terms of the Lagrangian by focusing on their general interpretation (see figure 10). Based on this first glimpse into the world of quantum field theory, the associated Feynman diagrams can be discussed, which allow students to gain insight into the precise prediction power of the Standard Model of particle physics. This can even be done in a playful way: by taking conservation of charge (electric, weak, and colour) into account, fundamental vertices can be attached to each other like dominoes. This enables students to determine which processes and interactions between elementary particles are possible. For instance: 'Start with a muon. Is it possible for the muon to transform in such a way that at the end of this process, among other particles, an electron exists?'


Figure 10.

Figure 10. Short version of the Lagrangian. The terms coloured in red are governed by the electromagnetic, weak, and strong interactions, while those that are coloured blue are governed by interactions with the Brout–Englert–Higgs field. Most everyday phenomena, such as light, electricity, radioactivity, and sound, are described by the second term, 'interactions between matter particles'.

 Standard image High-resolution image Export PowerPoint slide

When discussing Feynman diagrams in the classroom, however, it is important to point out that these diagrams are only visualisations of the Standard Model of particle physics. The interpretation of Feynman diagrams is strictly limited to fundamental processes and care should be taken to avoid any notion of misleading interpretation of Feynman diagrams as 2D motion diagrams. Once Feynman diagrams are established, an additional step can be the introduction of Feynman rules [6] and the coupling parameters of the respective interaction particles. Together with conservation of energy and momentum, one can then make full use of Feynman diagrams, which even allow determinations of the probabilities of transformation processes. For instance, this technique is used to calculate the production rates of Higgs bosons at the Large Hadron Collider, which are then compared with measurements from CMS and ATLAS. As mentioned above, any deviation between the two would open the door to new physics and even more exciting times in particle physics.

Although the Standard Model of particle physics is an extremely successful theory, it is far from being a complete description of the universe: according to today's models, the universe consists only of 5% visible matter, which can be described by the Standard Model of particle physics. This means future generations of physicists will still have plenty of new physics to discover! Currently, the hunt is on for theories which go beyond the Standard Model of particle physics to incorporate dark matter and dark energy.

Another shortcoming of the Standard Model of particle physics is the absence of a description of gravity. The search for a unification of all four fundamental interactions through a single theory—the so-called Theory of Everything—can be seen as the quest for the Holy Grail of our times. It is probably a safe bet to say that this ambition will keep supersymmetry researchers and string-theorists busy for quite some time. In the meantime, there are two coffee mugs in the offices at CERN: one for the Standard Model of particle physics and one for Einstein's theory of general relativity (see figure 11). We hope that with the help of further hot coffees we will soon need only one mug...


Figure 11.

Figure 11. Standard Model of particle physics and Einstein's theory of general relativity.

 Standard image High-resolution image Export PowerPoint slide

Footnotes

  • 4

    In this case, one has to sum over the indices according to the Einstein summation convention.

  • 5

    The symbol ψ is also used to represent a wave function in classical quantum mechanics. Although this is related to the field representation we use, the two are not exactly the same.

References

Just think: The challenges of the disengaged mind (les défis de l'esprit désengagé)

Just think: The challenges of the disengaged mind

In 11 studies, we found that participants typically did not enjoy spending 6 to 15 minutes in a room by themselves with nothing to do but think, that they enjoyed doing mundane external activities much more, and that many preferred to administer electric shocks to themselves instead of being left alone with their thoughts. Most people seem to prefer to be doing something rather than nothing, even if that something is negative.

Just think: les défis de l'esprit désengagé

Dans 11 études, nous avons constaté que les participants n’aimaient généralement pas passer de 6 à 15 minutes dans une pièce par eux-mêmes avec rien d'autre à faire que penser, qu'ils ont préferé faire des activités mondaines, et que beaucoup ont préféré s'administrer des chocs électriques à eux-mêmes au lieu d'être laissés seuls avec leurs pensées. La plupart des gens semblent préférer faire quelque chose plutôt que rien, même si ce quelque chose est négatif.

Reference :

Wilson, Timothy D., et al. "Just think: The challenges of the disengaged mind." Science345.6192 (2014): 75-77.
Click here to view the paper

https://drive.google.com/open?id=1i4a25v3ZHI0zbMRrff688KhbI9jpEKgQ

De la tyrannie des chiffres : De l’excès de mesure… au paradoxe de la mesure

De la tyrannie des chiffres

On n’a pas attendu le numérique pour produire des métriques, mais celui-ci a incontestablement simplifié et amplifié leur production. Quitte à produire un peu n’importe quelles mesures puisque celles-ci semblent désormais accessibles et ajustables en quelques clics. On connaît la rengaine : « ce qui ne peut être mesuré ne peut être géré » (même si la formule de Peter Drucker est en fait plus pertinente que ce que nous en avons retenu). Est-ce pour autant qu’on ne gère que ce que l’on sait chiffrer ?

Non. C’est en tout cas ce que répond le stimulant petit livre du professeur d’histoire de l’université catholique d’Amérique, Jerry Z. Muller(@jerryzmuller), The Tyranny of Metrics (La tyrannie des métriques, Princeton University Press, 2018, non traduit), qui se révèle être un très bon petit guide pour nous inviter à prendre un peu de recul sur notre obsession pour les chiffres.

Le propos de Jerry Muller relève pour beaucoup du simple bon sens.

« Il y a des choses qui peuvent être mesurées. Il y a des choses qui valent d’être mesurées. Mais ce que nous pouvons mesurer n’est pas toujours ce qui vaut d’être mesuré ; ce qui est mesuré peut n’avoir aucune relation avec ce que nous voulons vraiment savoir. Le coût de la mesure peut-être plus fort que ses bénéfices. Les choses que nous mesurons peuvent nous éloigner des choses dont nous voulons vraiment prendre soin. Et la mesure nous apporte souvent une connaissance altérée – une connaissance qui semble solide, mais demeure plutôt décevante. »

De l’excès de mesure… au paradoxe de la mesure

Relier la responsabilité aux mesures et à leur transparence s’avère souvent décevant. La responsabilité signifie être responsable de ses actions. Mais, par un glissement de sens, la responsabilité signifie souvent démontrer une réussite via des mesures standardisées, comme si seulement ce qui était mesurable comptait vraiment. Pour Muller, nous sommes obsédés par les chiffres. Nous avons une pression irrépressible à mesurer la performance, à en publier les chiffres, et à récompenser les performances depuis ceux-ci, quand bien même l’évidence nous montre que cela ne fonctionne pas si bien. Pour Muller, notre problème n’est pas tant la mesure que ses excès. Trop souvent nous préférons substituer des chiffres, des mesures, à un jugement personnel. Trop souvent le jugement est compris comme personnel, subjectif, orienté par celui qui le produit, alors que les chiffres, en retour, eux, sont supposés fournir une information sûre et objective. S’il y a beaucoup de situations où prendre des décisions basées sur une mesure est supérieur au jugement basé sur l’expérience… reste que les chiffres sont utiles quand l’expérience de quelqu’un est limitée pour développer son intuition. Certes, comme le montrait le livre Moneyball, l’analyse statistique est parfois capable de mesurer des caractéristiques négligées qui sont plus significatives que celles sur lesquelles s’appuie l’expérience et l’intuition. Mais ce n’est pas toujours le cas. Trop souvent, les métriques sont contre-productives, notamment quand elles peinent à mesurer ce qui ne l’est pas, à quantifier ce qui ne peut l’être.

Muller montre par de nombreux exemples comment nous nous ingénions à contourner les mesures, à l’image des hôpitaux britanniques qui avaient décidé de pénaliser les services dont les temps d’attente aux urgences étaient supérieurs à 4 heures. La plupart des hôpitaux avaient résolu le problème en faisant attendre les ambulances et leurs patients en dehors de l’hôpital ! Comme le rappelle la loi de Goodhart : « lorsqu’une mesure devient un objectif, elle cesse d’être une bonne mesure. » Plus qu’une obsession, nous sommes coincés dans un paradoxe de la mesure. Plus nous en produisons, plus elles sont précises, plus nous nous ingénions à les contourner à mesure qu’elles ne parviennent pas à remplir ce qu’elles étaient censées accomplir. Pour Muller, si les chiffres sont potentiellement des outils précieux, leurs vertus nous a été survendu, et leurs coûts toujours sous-estimés, comme l’explique le sociologue Jérôme Denis dans son livre Le travail invisible des données, qui souligne combien celles-ci sont toujours travaillées, « obtenues »… et donc que les standards qu’elles sont censées produire ont toujours un caractère « potentiellement conflictuel » !

La transparence des chiffres n’induit pas la responsabilité

Pour Muller, l’obsession des métriques repose sur : la croyance qu’il est possible et désirable de remplacer le jugement acquis par l’expérience personnelle et le talent, avec des indicateurs numériques de performance comparative basés sur des données standardisées ; la croyance que rendre ces mesures publiques (c’est-à-dire transparentes) assure que les institutions effectuent leurs buts (c’est-à-dire leur responsabilité) ; la croyance que la meilleure façon de motiver les gens dans les organisations est de les attacher à des récompenses ou des pénalités depuis ces mesures de performance (que les récompenses soient monétaires ou réputationnelles). L’obsession des métriques repose sur la persistance de ces croyances malgré les conséquences négatives qu’elles entraînent quand elles sont mises en pratique. Mais, si cela ne fonctionne pas, c’est d’abord et avant tout parce que tout ce qui est important n’est pas toujours mesurable et beaucoup de ce qui est mesurable n’est pas toujours important. À nouveau, toute mesure utilisée comme objectif, utilisée comme outil de contrôle devient douteuse. Par nature, toute mesure sera détournée ! Pire, rappelle Muller : forcer les gens à se conformer à des objectifs mesurés à tendance à étouffer l’innovation et la créativité, et renforce la poursuite d’objectifs à court terme sur ceux à long terme. La mesure a fait plus de progrès que le progrès lui-même, ironise Muller.

Le petit livre de Jerry Muller assène bien des évidences, certes. Mais des évidences qui font du bien, tant la démultiplication des chiffres dans le monde dans lequel nous vivons semble nous avoir fait perdre de vue toute raison.

Il souligne que trop souvent, on mesure le plus ce qui est le plus facile à mesurer, le plus simple. Mais c’est rarement le plus important. En mesurant le plus simple, on en oublie la complexité : ainsi quand on mesure les objectifs d’un employé, on oublie souvent que son travail est plus complexe que cela. On mesure plus facilement les sommes dépensées ou les ressources qu’on injecte dans un projet que les résultats des efforts accomplis. Les organisations mesurent plus ce qu’elles dépensent que ce qu’elles produisent. Bien souvent, la mesure, sous prétexte de standardisation, dégrade l’information, notamment pour rendre les choses comparables au détriment des ambiguïtés et de l’incertitude.

Quant aux manières de se jouer des métriques, elles sont là aussi nombreuses : simplifier les objectifs permet souvent de les atteindre au détriment des cas difficiles ; améliorer les chiffres se fait souvent en abaissant les standards… sans parler de la triche, on ne peut plus courante.

Les métriques au détriment du jugement, les chiffres au détriment de l’intangible

L’historien, bien sûr, tente de retracer rapidement l’origine de la mesure et tente d’expliquer pourquoi elle est devenue si populaire. C’est vraiment avec Frederick Taylor, cet ingénieur américain qui va inventer le management scientifique au début du 20e siècle, que la mesure va s’imposer. Le but même du taylorisme était de remplacer le savoir implicite des ouvriers avec des méthodes de production de masse, développées, planifiées, surveillées et contrôlées par les managers. Le Taylorisme va s’imposer en promouvant l’efficacité par la standardisation et la mesure, d’abord dans l’industrie avant de coloniser avec le siècle, tous les autres secteurs productifs. Le Taylorisme a été développé par les ingénieurs, mais aussi par les comptables. L’expertise nécessitait des méthodes quantitatives. Les décisions basées sur des chiffres étaient vues comme scientifiques, comme objectives et précises. La performance de toute organisation pouvait alors être optimisée en utilisant les mêmes outils et techniques de management. Ceux qui calculaient les coûts et les marges de profits s’alliaient avec ceux qui retiraient l’expérience des travailleurs pour les fondre dans des machines qui décomposaient les tâches pour mieux mesurer chacune et pour les rendre non spécialisée, permettant de remplacer n’importe quel travailleur par un autre. Le calcul s’est immiscé partout. Le biais matérialiste également : il était partout plus facile de mesurer les apports et rendements tangibles que les facteurs humains intangibles – comme la stratégie, la cohésion, la morale… La confiance et la dépendance dans les chiffres ont minimisé et réduit le besoin de connaître les institutions de l’intérieur. « Ce qui pouvait être mesuré a éclipsé ce qui était important ». Et la culture du management a exigé toujours plus de données… mais en parvenant à mesurer certains critères plutôt que d’autres, à favoriser donc certaines valeurs au détriment d’autres.

Muller explique encore que si les métriques sont devenues si populaires c’est parce qu’elles permettaient de se passer du jugement individuel. Elle permettait de remplacer ceux qui avaient la connaissance pour juger, par n’importe qui sachant lire les chiffres. L’objectivité des chiffres semblait supérieure au jugement subjectif et ce d’autant que les chiffres et les courbes étaient compréhensibles par tous. Les métriques se sont imposées dans les secteurs où la confiance était faible. Les décisions humaines sont devenues trop dangereuses à mesure qu’elles impliquaient une trop grande complexité de facteurs : d’où la prolifération des métriques, des process, des règles… La demande d’un flux constant de rapports, de données, de chiffres… a finalement diminué l’autonomie de ceux qui étaient les plus bas dans les organisations. La feuille de calcul est devenue l’outil phare du calcul, une façon de voir la réalité par les chiffres. La feuille de calcul qu’analysait Paul Dourish a créé une illusion d’analyse en profondeur. Alors que les données sont toujours plus faciles à collecter et à traiter, le chiffre et son traitement sont devenus la réponse à toute question posée par les organisations.

Dans les organisations, la mesure a remplacé la confiance. « Les nombres sont vus comme une garantie d’objectivité, un moyen de remplacer la connaissance intime et la confiance ». Les indicateurs de performance sont devenus des stratégies. Muller rappelle que la connaissance pratique est le produit de l’expérience… Si elle peut-être apprise par la pratique, elle ne se résume pas en formule générale. Alors que la connaissance abstraite, chiffrée, n’est qu’une question de technique, qui peut être systématisée, communiquée et appliquée.

Dans son livre, Muller évoque nombre de secteurs où les chiffres n’ont pas produit ce qu’on attendait d’eux. Dans le domaine scolaire, en médecine, dans le domaine militaire, dans la police et bien sûr dans les affaires… les chiffres sont souvent mal utilisés et ne parviennent pas à mesurer l’important. Bien souvent, les chiffres déplacent les objectifs, favorisent le court-termisme, découragent la prise de risque, l’innovation, la coopération… coûtent du temps (« Bien souvent, la métrique du succès est le nombre et la taille des rapports générés, comme si rien n’était accompli jusqu’à ce qu’il soit extensivement documenté »), voire sont dommageable pour la productivité elle-même (« Une question qui devrait être posée est de savoir dans quelle mesure la culture des métriques a elle-même contribué à la stagnation économique ? »)…

Interroger la légitimité des chiffres et assumer ses jugements !

Pour conclure son livre, Jerry Muller propose une checklist pour évaluer la légitimité de ce que vous cherchez à mesurer. Malgré ses critiques, nourries, il ne rejette pas tout chiffre, mais souligne qu’on devrait plus souvent penser à s’en passer.

Pour lui, il faut d’abord se poser la question de ce que l’on cherche à mesurer en se souvenant que plus un objet mesuré est influencé par la procédure de mesure, moins il est fiable. Et que ce constat empire quand la mesure repose sur l’activité humaine, plus capable de réagir au fait d’être mesurée, et pire encore quand des systèmes de récompenses ou de punition sont introduits…

L’information est-elle utile ? Le fait que quelque chose soit mesurable ne signifie pas qu’il faille le faire (au contraire, bien souvent la facilité à mesurer est inversement proportionnelle à sa signification !). « Posez-vous la question de ce que vous voulez vraiment savoir ! », conseille l’historien.

Est-ce que plus d’information est utile ? Si la mesure est utile, cela ne signifie pas pour autant que plus de mesure est plus utile.

D’autres indicateurs sont-ils disponibles ?

À qui profite la mesure ? Pour qui l’information sera-t-elle transparente ? – Et donc, pour qui ne le sera-t-elle pas ?

Quels sont les coûts pour acquérir ces métriques ?

Qui demande des chiffres et pourquoi ?

Comment et par qui ces mesures sont-elles faites (notamment pour souligner que bien souvent les métriques des uns ne devraient pas être celles des autres) ?

Comment corrompre vos chiffres ou faire diversion sur les objectifs ?

Souvenez-vous enfin que reconnaître ses limites est le début de la sagesse. Tout ne peut pas être amélioré par des chiffres. Et rendre un problème plus transparent par des chiffres peut rendre le problème plus saillant sans le rendre plus soluble.

Les métriques ne sont pas là pour remplacer le jugement, rappelle Muller, mais plutôt pour l’informer. Et pour cela, cela nécessite aussi de savoir quel poids donner aux mesures, savoir reconnaître ce qu’elles déforment, apprécier aussi ce qui n’est pas mesurable.

Oui, Jerry Muller semble égrainer des évidences. Mais c’est pour mieux souligner combien les chiffres participent à nous les faire perdre de vue. Souvenons-nous de ce que disait Dan Ariely : la précision, l’exactitude, l’immédiateté, la granularité ou la transparence ne sont pas toujours les meilleures façons de présenter les choses. La précision des chiffres ne rend pas les données plus utiles. Parfois produire des données moins fines, des indicateurs sans chiffres… sont des options qui peuvent aisément remplacer des données qui calculent mal ce qu’elles sont censées calculer… Trop souvent, les chiffres servent à faire passer des jugements dans les biais qui les masquent. La précision des chiffres, bien souvent, comme le rappelle le journaliste spécialiste des données Nicolas Kayser-Bril sur son blog, sert à nous faire croire en leur fiabilité, alors qu’ils sont comme tout savoirs, incertains !

À l’heure où le monde semble si facilement mesurable, souvenons-nous que ces mesures ne produisent pas toujours du sens, au contraire. Comme disait Pablo Jensen, le modèle du social que les chiffres induisent présupposent une forme de social qui n’a rien de la neutralité sous laquelle elle se présente.

Le monde numérique, qui produit des chiffres avec tant de facilité, peine bien souvent à prendre un peu de recul sur la validité des métriques qu’il démultiplie, oubliant de trouver le bon indicateur, qui n’est que rarement celui qui est produit. Sans compter que les indicateurs des uns ont tendance à devenir les indicateurs des autres, alors que trop souvent les métriques devraient être différentes et différenciées, afin que les indicateurs des uns ne soient pas nécessairement les indicateurs des autres.

La facilité à produire une tyrannie ne doit pas nous faire oublier ce que nous produisons. Si nous avons les moyens de la produire, il nous faut nous interroger sur comment y résister et comment réduire, atténuer voire contester cette production. Si nous sommes capables d’imposer une tyrannie, il faut nous interroger sur comment la défaire.

Source : Hubert Guillaud,  http://internetactu.blog.lemonde.fr/2018/09/29/de-la-tyrannie-des-chiffres/

Teacher characteristics and their effects on student test scores: A best-evidence review

Ci-dessous, un article de revue qui s'intéresse entre la relation entre la réussite des élèves en fonctions du profil des enseignants :

Teacher characteristics and their effects on student test scores: A best-evidence review

by : Johan Coenen, Wim Groot, Henriette Maassen van den Brink and  Chris van Klaveren


Coenen, J., Groot, W., van den Brink, H. M., & Van Klaveren, C. Teacher characteristics and their effects on student test scores: A best-evidence review.

 

ASCII MATH Syntax

Source : http://asciimath.org/

Syntax

Most AsciiMath symbols attempt to mimic in text what they look like rendered, like oo for . Many symbols can also be displayed using a TeX alternative, but a preceeding backslash is not required.

Operation symbols
Type TeX alt See
+ ++
- -
* cdot
** ast
*** star
// //
\\ backslash
setminus
\\
xx times ××
-: div ÷÷
|>< ltimes
><| rtimes
|><| bowtie
@ circ
o+ oplus
ox otimes
o. odot
sum
prod
^^ wedge
^^^ bidwedge
vv vee
vvv bigvee
nn cap
nnn bigcap
uu cup
uuu bigcup

 

Miscellaneous symbols
Type TeX alt See
2/3 frac{2}{3} 2323
2^3 2323
sqrt x xx
root(3)(x) 3xx3
int
oint
del partial
grad nabla
+- pm ±±
O/ emptyset
oo infty
aleph
:. therefore
:' because
|...| |ldots| |...||...|
|cdots| |||⋯|
vdots
ddots
|\ | | || |
|quad| |  ||  |
/_ angle
frown
/_\ triangle
diamond
square
|__ lfloor
__| rfloor
|~ lceiling
~| rceiling
CC C
NN N
QQ Q
RR R
ZZ Z
"hi" text(hi) hihi

 

Relation symbols
Type TeX alt See
= ==
!= ne
< lt <<
> gt >>
<= le
>= ge
-< prec
-<= preceq
>- succ
>-= succeq
in
!in notin
sub subset
sup supset
sube subseteq
supe supseteq
-= equiv
~= cong
~~ approx
prop propto
Logical symbols
Type TeX alt See
and andand
or oror
not neg ¬¬
=> implies
if ifif
<=> iff
AA forall
EE exists
_|_ bot
TT top
|-- vdash
|== models

 

Grouping brackets
Type TeX alt See
( ((
) ))
[ [[
] ]]
{ {{
} }}
(: langle
🙂 rangle
<<
>>
{: x ) x)x)
( x :} (x(x
abs(x) |x||x|
floor(x) x⌊x⌋
ceil(x) x⌈x⌉
norm(vecx) x∥x→∥
Arrows
Type TeX alt See
uarr uparrow
darr downarrow
rarr rightarrow
-> to
>-> rightarrowtail
->> twoheadrightarrow
>->> twoheadrightarrowtail
|-> mapsto
larr leftarrow
harr leftrightarrow
rArr Rightarrow
lArr Leftarrow
hArr Leftrightarrow

 

Accents
Type TeX alt See
hat x ˆxx^
bar x overline x ¯x
ul x underline x x
vec x xx→
dot x .xx.
ddot x ..xx..
overset(x)(=) overset(x)(=) x==x
underset(x)(=) =x=x
ubrace(1+2) underbrace(1+2) 1+21+2⏟
obrace(1+2) overbrace(1+2) 1+21+2⏞
color(red)(x) xx
cancel(x) xx
Greek Letters
Type See Type See
alpha αα
beta ββ
gamma γγ Gamma ΓΓ
delta δδ Delta ΔΔ
epsilon εε
varepsilon ɛɛ
zeta ζζ
eta ηη
theta θθ Theta ΘΘ
vartheta ϑϑ
iota ιι
kappa κκ
lambda λλ Lambda ΛΛ
mu μμ
nu νν
xi ξξ Xi ΞΞ
pi ππ Pi ΠΠ
rho ρρ
sigma σσ Sigma ΣΣ
tau ττ
upsilon υυ
phi ϕϕ Phi ΦΦ
varphi φφ
chi χχ
psi ψψ Psi ΨΨ
omega ωω Omega ΩΩ

 

Font commands
Type See
bb "AaBbCc" AaBbCcAaBbCc
bbb "AaBbCc" AaBbCcAaBbCc
cc "AaBbCc" AaBbCcAaBbCc
tt "AaBbCc" AaBbCcAaBbCc
fr "AaBbCc" AaBbCcAaBbCc
sf "AaBbCc" AaBbCcAaBbCc

 

Standard Functions

sin, cos, tan, sec, csc, cot, arcsin, arccos, arctan, sinh, cosh, tanh, sech, csch, coth, exp, log, ln, det, dim, mod, gcd, lcm, lub, glb, min, max, f, g.

 

Special Cases

Matrices: [[a,b],[c,d]] yields to [abcd][abcd]

Column vectors: ((a),(b)) yields to (ab)(ab)

Matrices can be used for layout: {(2x,+,17y,=,23),(x,-,y,=,5):} yields{2x+17y=23xy=5{2x+17y=23x-y=5

Complex subscripts: lim_(N->oo) sum_(i=0)^N yields to limNNi=0limN→∞∑i=0N

Subscripts must come before superscripts: int_0^1 f(x)dx yields to 10f(x)dx∫01f(x)dx

Derivatives: f'(x) = dy/dx yields f'(x)=dydxf′(x)=dydx
For variables other than x,y,z, or t you will need grouping symbols: (dq)/(dp) for dqdpdqdp

Overbraces and underbraces: ubrace(1+2+3+4)_("4 terms") yields 1+2+3+44 terms1+2+3+4⏟4 terms.
obrace(1+2+3+4)^("4 terms") yields 4 terms1+2+3+41+2+3+4⏞4 terms.

Attention: Always try to surround the > and < characters with spaces so that the html parser does not confuse it with an opening or closing tag!

 

The Grammar

Here is a definition of the grammar used to parse AsciiMath expressions. In the Backus-Naur form given below, the letter on the left of the ::= represents a category of symbols that could be one of the possible sequences of symbols listed on the right. The vertical bar | separates the alternatives.

v ::= [A-Za-z] | greek letters | numbers | other constant symbols
u ::= sqrt | text | bb | other unary symbols for font commands
b ::= frac | root | stackrel | other binary symbols
l ::= ( | [ | { | (: | {: | other left brackets
r ::= ) | ] | } | 🙂 | :} | other right brackets
S ::= v | lEr | uS | bSS             Simple expression
I ::= S_S | S^S | S_S^S | S          Intermediate expression
E ::= IE | I/I                       Expression

TENSION SUPERFICIELLE

TENSION SUPERFICIELLE

Contrairement à la notion dite "tension" en mécanique - qui est une force -le mot tension ici implique une énergie

(la tension superficielle est une énergie potentielle de surface ou énergie surfacique)

Synonyme: Tension interfaciale

Equation aux dimensions : M.T-2        Symbole de désignation : W’t       

Unité S.I.+ : J/m² ou N/m

C’est en fait l’énergie interne des molécules d'un fluide, qui s’exprime:

--soit envers des molécules voisines (et s’annule par compensation)

--soit envers les parois (et est compensée par la réaction desdites parois)

--soit envers l’atmosphère si le vase est ouvert (et elle est fonction de la surface d’interface)

 

TENSION SUPERFICIELLE

W'= dE / dS

où W't(J/m²)= tension superficielle sur une surface S(m²) d’un fluide en interface avec un milieu extérieur ambiant

dE(J)= énergie nécessaire pour augmenter S de dS(m²)

 

LOI de TATE

W'= F/ Kz.l

avec W't(N/m)= tension superficielle d'un liquide

Fp(N)= poids d’une goutte de liquide passant par un orifice (Fp = m.g)

m(kg)= masse de la goutte de liquide et g (m/s²) = pesanteur

Kz(valeur # 4)= constante capillaire tenant compte de la matière où se déroule le phénomène

l(m)= rayon de l’orifice d’écoulement

 

LOI de LAPLACE

 Δp = W't(1/ l1+ 1/ l2)

où W't(N/m)= tension superficielle sur la surface (non plane) de séparation entre 2

fluides

 Δp(Pa)= variation de pression en un point de l’interface

l1 et l2 (m)= rayons des cercles osculateurs perpendiculaires contenant la normale à la surface

 

VALEURS COURANTES des TENSIONS SUPERFICIELLES

(sont notés >> le type d’interface et la valeur, donnée en N/m)

solide / vide(10-1)--solide / gaz(8.10-2)--solide métal /sa propre vapeur(1)--

solide / liquide(2.10-2) comme par exemple glace / eau(..)--

liquide / gaz(10-1 à -2) tels par exemple les solutions de sels usuels avec l’air (1 à 3.10-1)--

mercure / air(5.10-1)--alcool / air( 2.10-2)--hydrocarbures / air(1 à 5.10-2)--

huile / air(3.10-2) --eau / air(7,3.10-2)--eau / vapeur d’eau(8.10-1)

Nota >> W’t varie avec la température (# 2% pour 10 degrés)

Copyright Formules-physique ©

The Marangoni Effect

Understanding the Marangoni Effect

The Marangoni effect takes place when there is a gradient of surface tension at the interface between two phases – in most situations, a liquid-gas interface. The surface tension typically changes due to variations in solute concentration, surfactant concentration, and temperature variations along the interface.

In some eutectics or multicomponent liquids, the direction of the gradient of surface tension tangential to the interface can be changed by altering the concentration of the solutes at the surface or by adding surfactants. Depending on the fluid, a rather strong convective motion may be produced. This results in a shear stress at the surface, similar to what the wind can create.

In cases where the concentration drives the variation of the surface tension, the Marangoni effect is referred to as the solutocapillary effect. In cases where the surface tension varies with the temperature, the Marangoni effect is referred to as the thermocapillary effect. Both effects can take place simultaneously.

Simulation of Marangoni convection.Simulation in which heat is applied to a free surface. Isotherms, velocity arrows, and streamlines are displayed, illustrating the motion directed toward the outer cold boundary. This example describes the thermocapillary effect as it relates to temperature dependence.

The Marangoni Effect Versus the Capillary Effect

It is important that the Marangoni effect is not confused with the pure capillary effect. Capillary forces are responsible for a meniscus at an interface, or the shape of a water droplet. The typical size of a small droplet of liquid derives from the equilibrium between the surface tension force  and the hydrostatic pressure . The size  is called the capillary length, which can be estimated from:

Here,  is the surface tension in N/m,  is the density of the fluid forming the droplet in kg/m3, and  is the gravity in m2/s.

In water,  = 72.8e-3 N/m at 20°C. The capillary length is thus within the range of 2 to 3 mm for water. This provides a good estimate for the diameter of a water droplet that is simply at rest on a table. Above this dimension, gravity becomes more and more predominant. Below this dimension, capillary forces are often much greater than the effects of gravity. All of this is true for an isothermal system.

However, when a meniscus is present and a solute evaporates from the liquid surface (e.g., ethanol in a water solution), gradients in concentration may occur along the surface of the liquid. The reason for these gradients is that the evaporating solute is replaced more quickly at the flat surface compared to the meniscus, since the solute transport from the bulk to the surface is faster at the flat interface. In a way, this connects capillary effects and the Marangoni effect.

The Marangoni effect produces tears of wine.The alcohol concentration gradient, caused by differences in the transport rate of alcohol from the bulk to the flat surface and from the bulk to the meniscus, results in surface tension gradients and the formation of tears of wine.

The Marangoni effect can take place at both ranges of dimensions – microfluidics and larger meter scales. What's important is the variation of the surface tension – for example, with respect to the temperature in the thermally induced Marangoni effect. The scale at which the thermally induced Marangoni effect is active relates to the temperature gradient in the direction tangential to the interface.

A variation of  might then come from thermal or composition (concentration) effects:

with  and  denoting the temperature and concentration.

 is the thermal dependence of the surface tension in N/m/K. The absolute value is used so that the nondimensional Marangoni number remains positive.

A similar definition applies to the composition dependence of the surface tension.

Plots showing Marangoni convection with increasing temperature differences.As temperature differences increase, the Marangoni effect becomes more pronounced.

The thermally induced Marangoni effect relates the normal component of the shear stress to the tangential derivative of the temperature. For an incompressible fluid with no pressure contribution in a laminar flow, it is written as:

This is a boundary condition that acts at the free surface of the fluid (typically a gas-liquid interface) modeled with the Navier-Stokes equations.

The Marangoni number is the nondimensional number that gives the ratio between the thermocapillary effect and the viscous forces.

 is the the length scale of the system in m,  is the maximum temperature difference across the system in K,  is the dynamic viscosity in kg/s/m, and  is the thermal diffusivity in m2/s.

You might prefer to rearrange this as:

where  is the kinematic viscosity in m2/s.

Written in this format, there is an analogy with the Rayleigh number that is relevant for conjugate heat transfer due to Archimedes' forces.

The typical velocities involved are the thermocapillary velocity , the thermal diffusion velocity , and the molecular diffusion velocity .

Based on this, it is easy to derive an equivalent Reynolds number as:

 is the Prandtl number, which is characteristic of the fluid of interest.

As is the case with the Reynolds number, typical orders of magnitude for flow characterization with the Marangoni number depend greatly on the geometry. However, a Marangoni number above 1·105 will typically develop unsteady flows, if not turbulent.

The Impact of the Marangoni Effect

First noted in the phenomenon of tears of wine, the Marangoni effect has been observed in various surface chemistry and fluid flow processes.

Welding

Welding is a fabrication process where the Marangoni effect has to be accounted for. When the base metal during welding reaches its melting point, a weld pool forms. Marangoni forces within these pools can affect the flow and temperature distribution and modify the molten pool extension. This can potentially result in stresses within the material as well as deformation.

Crystal Growth

Semiconductors are usually comprised of crystal lattice structures. The processes for developing pure crystals (e.g., silicon) consist of purifying the metal, which begins with melting the solid. During purification, convection in the liquid phase must be allowed so that impurities like oxides, which are often lighter than metal, have time to separate. Additionally, heat transfer must be regulated so that the shape of the solidification front is controlled.

Forces from the Marangoni effect can impact crystal growth, causing faults within the structure. These faults can inhibit the material's semiconducting capabilities and result in defects within the device.

Electron Beam Melting

Using an electron beam as its power source, metal powder can be melted to manufacture mechanical parts. This method of additive manufacturing has gained popularity in the development of medical implants as well as the aerospace industry. During the melting process, large thermal gradients can generate Marangoni forces within the melt. Such forces have the potential to negatively affect the quality of the material.

 

Source : https://www.comsol.it/multiphysics/marangoni-effect

Des smartphones pour faire des expériences de physique au lycée et à l’université

Des smartphones pour faire des expériences de physique au lycée et à l’université

Deux milliards de smartphones sur la Terre. 25 millions de possesseurs en France cette année. Ça augmente toujours. Une épidémie galopante, puisque on passe de rien à un milliard en bien moins de dix ans. En 1991, un iPhone aurait coûté 2,6 millions d'euros est-il écrit dans un article récent. S'il en était besoin, cela souligne la puissance technologique de ces appareils tellement bien adaptés à nous, pauvres humains, que nous ne la voyons plus vraiment. C’est vraiment un chef d'œuvre du design industriel que d’avoir réussi cela.


Utilisation des smartphones dans l'éducation


Pour les enseignants en science, le regard porté sur ses appareils peut être tout autre.

Une simple bille en verre de 1 mm environ permet de s’en rendre compte. Placée sur l'objectif de la caméra du smartphone, elle en fait un microscope optique capable de distinguer les globules rouges. C’est un retour incroyable aux origines de la microscopie optique et à son précurseur Antoine Van Leeuwenhoek (1632-1723). Une bille en verre devant l'œil est le premier microscope qu’il a construit. Il a permis de découvrir les spermatozoïdes. Aujourd’hui à la place de l'œil, derrière la bille, on place la caméra du smartphone et son détecteur CMOS. C’est bien plus pratique et bien plus puissant. La technologie associée au numérique simplifie même le microscope optique. L'image enregistrée peut être immédiatement partagée sur le web. En fait une goutte d’eau placée sur l’entrée de la caméra fait parfaitement l’affaire.

La revue des professeurs de physique aux Etats-Unis, The Physics Teacher, ne s'y est pas trompée et a créé la rubrique mensuelle iPhysicsLabs qui montre combien un smartphone est un instrument de mesure puissant au service de la démarche expérimentale en classe à différents niveaux et utilisable dans une grande diversité de sujets enseignés en physique. La plate-forme européenne pour les professeurs de sciences, Science on Stage, a aussi constitué un groupe de travail «iStage 2: Smartphones in Science Teaching» auquel participent Philippe Jeanjacquot et Francoise Morel-Deville de l'Institut Français d'Education à l'Ecole Normale Supérieure de Lyon (voir les ressources Smartphones et Education). Plusieurs groupes de recherche allemands (Kaiserslautern , Munich,…) en didactique de la physique en ont fait un projet de recherche.

Cet intérêt n’est en fait pas une surprise. Avec les smartphones, chaque élève, peut disposer d'un accéléromètre 3D, d'un gyroscope 3D, d'un magnétomètre 3D, de deux caméras de haute performance, d'une source de lumière blanche intense et froide (pas de LED en 1991), d'un microphone et d'un haut-parleur. Excusez du peu. Et en plus, de nouveaux capteurs viennent périodiquement compléter la panoplie. Les derniers smartphones intègrent des capteurs très performants de température et de pression. C’est la porte ouverte à l’étude expérimentale par les smartphones de la thermodynamique, la science des échanges d’énergie et des machines thermiques. Tout ceci est donc intégré, tient dans la main et peut stocker l'ensemble de ces données ou les envoyer en temps réel jusqu'à cent fois par seconde à un ordinateur. A partir de là, les capteurs microsystèmes que sont l'accéléromètre et le gyroscope vous permettent d'étudier expérimentalement et en détail, les grands classiques des salles de cours comme le pendule ou la rotation (un smartphone dans une essoreuse à salade constitue un excellent montage expérimental pour étudier le mouvement circulaire uniforme).

Par exemple, à partir des équations de la Mécanique Classique (un des cours les plus visités sur le site MIT OpenCourseWare), la combinaison des données issues de l’accéléromètre et du gyroscope du smartphone permet de reconstruire sans paramètre ajustable la trajectoire du Tram B de Grenoble et de la comparer à celle qui apparaît sur Google Maps. Longue discussion avec les étudiants de première année de Licence à propos de l’intégration numérique et des sources d’erreur pour expliquer les différences observées même si le résultat est plus que convaincant. Gros succès aussi auprès des utilisateurs du tramway devant une troupe d’étudiants installant des smartphones sur les sièges et attendant très attentifs les signes du départ.

Source : Joel Chevrier,dans echosciences du 6 novembre 2016  

La mosca nel bicchiere (quanto pesa quando vola ?)

Una mosca (peso 5gr) è dentro un bicchiere (100gr) capovolto su una bilancia. Quanto segna la bilancia

1) quando la mosca è appoggiata ferma sulla bilancia ?
2) mentre la mosca si alza in volo dentro il bicchiere ?

3) mentre la mosca vola ad altezza fissa, diciamo a metà del bicchiere ?

4) mentre la mosca, spinge il bicchiere nel tentativo di sollevarlo ?
5) mentre la mosca, stremata, precipita inerte verso il piatto della bilancia ?

------------------------------------------------

Domanda trovata su Yahoo ! Answers [1]

Risposta proposta da  Franco Bagnoli [5]

Una mosca (peso 5gr) è dentro un bicchiere (100gr) capovolto su una bilancia. Quanto segna la bilancia nei seguenti casi?
  1. Mentre la mosca è appoggiata ferma sulla bilancia; 
  2. Quando la mosca si alza in volo dentro il bicchiere; 
  3. mentre la mosca vola ad altezza fissa, diciamo a metà del bicchiere; 
  4. Quando la mosca spinge il bicchiere nel tentativo di sollevarlo; 
  5. Mentre la mosca, stremata, precipita inerte verso il piatto della bilancia. 
Ho estratto alcune risposte, che penso siano tipiche:
  • La bilancia segna 105 g quando la mosca è ferma a contatto con il bicchiere (caso 1), 100 g quando non è a contatto (casi 2,3,5), < 100 g quando la mosca è a contatto con il bicchiere, ma spinge verso l'alto.
  • La bilancia segna 105g quando la mosca è a contatto, incluso il caso in cui comincia a spingere verso l'alto (caso 1 e inizio del caso 2), 100 g quando non è a contatto ma più di 105 g quando, cadendo, arriva vicino alla bilancia. Questo perché quando è lontana le molecole di aria su cui lei si appoggia si disperdono, ma invece quando è vicina al fondo le molecole d'aria arrivano a battere direttamente sul fondo.
  • Sempre 100 g quando non è a contatto con qualcosa.
  • Sempre 105 g, perché il sistema è limitato.
Il problema qui è che la mosca non sembra interagire con la bilancia, essenzialmente perché c'è nel mezzo l'aria che è considerata "troppo molliccia" per comunicare una forza. Se al posto dell'aria ci fosse un filo, e al posto della mosca un ragno che si arrampica sul filo, sono sicuro che le risposte sarebbero diverse.
Cerchiamo di impostare il problema seguendo la fisica. Il sistema si può schematizzare con una scatola (che comprende il bicchiere e il piatto della bilancia), una molla (la bilancia), la mosca e l'aria. L'ago della bilancia mostra la compressione della molla. Le forze esterne al sistema sono la forza della molla (che agisce sulla scatola) e la forza di gravità (che agisce sulla scatola, sull'aria e sulla mosca). Però l'aria si può anche considerare un mediatore di forza senza peso, vista la sua bassa densità.
Tra mosca e scatola ci sono senz'altro delle forze, dato che altrimenti la mosca cadrebbe (sentirebbe solo la forza di gravità). Possiamo considerare alcune variazioni del problema:
  1. Al posto dell'aria mettiamo un filo e al posto della mosca un ragno. In questo caso l'aria non serve e possiamo pensare che ci sia il vuoto.
  2. Al posto della mosca mettiamo una pallina che è mantenuta in posizione da un getto d'aria proveniente da un ventilatore posto sul fondo della scatola.
  3. Al posto della mosca mettiamo un disco volante che si sostiene spedendo un raggio di fotoni verso il basso, fotoni che collidono con il fondo della scatola. Anche in questo caso non c'è bisogno dell'aria e quindi supponiamo che ci sia il vuoto nella scatola.
  4. Il disco volante si mantiene sparando delle palline di pongo verso il fondo della scatola (le palline in questo caso non rimbalzano e restano lì dove collidono).
  5. Possiamo considerare esplicitamente tutte le molecole di aria e le interazioni tra di loro, tra loro e la mosca e tra loro e la scatola.
In tutti questi casi abbiamo delle forze tra la mosca (o il ragno o il disco volante) e la scatola, o tra la mosca e le molecole d'aria (o le palline o i fotoni) e tra queste e la scatola.
Ora, possiamo generalizzare il problema (come viene fatto nei libri di testo) indicando con m le varie masse, ri le loro posizioni e  fi le forze agenti su queste. Le forze fi sono composte dalla somma delle forze esterne fi(e) (la forza peso e le forza tra scatola e molla della bilancia) e forze interne  fi(i)Σj fij esercitate sul corpo i da tutti gli altri corpi j (sono sempre forze interne al sistema, per esempio tra mosca e molecole d'aria o tra queste e la scatola). Ovviamente abbiamo  fi = mi ai, dove  asono le accelerazioni, ovvero le derivare seconde delle posizioni.
Adesso compaiono i due attori principali: il centro di massa e il principio di azione e reazione.
Il centro di massa è definito come un punto di massa M=Σi mi e di posizione R tale che MR=Σi mi ri.
Il principio di azione e reazione dice che se un corpo i agisce su un corpo j con una forza fij, allora il corpo agisce su i con una forza uguale e contraria, ovvero fji=-fij. 
 

Quindi, se mettiamo tutto insieme, abbiamo che l'accelerazione (A) del centro di massa è tale che

 MΣi mi aΣi fΣi fi(e)+Σi fi(i) Σi fi(e)+Σij fij.
 
Ma l'ultimo termine è nullo a causa del principio di azione e reazione, e quindi abbiamo che il moto del centro di massa è dato solo dalla somma delle forze esterne, che è il motivo per cui il centro di massa di un sistema è un concetto molto utile. Per esempio, per determinare il moto del centro di massa di un oggetto rigido, possiamo semplicemente ignorare le (grandissime) forze interne che tengono il corpo unito.
Per lo stesso motivo possiamo ignorare le forze tra mosca, molecole di aria e scatola, e considerare semplicemente il moto del centro di massa del sistema scatola-aria-mosca.
Ora, la scatola e l'aria stanno globalmente ferme. In realtà le molecole di aria si muovono, ma il loro centro di massa no. E della mosca conta solo la sua accelerazione.
Quindi:
  • Quando la mosca sta ferma (caso 1, 3 e 4) la bilancia segna 105 g. Questo anche quando la mosca si muove di moto rettilineo uniforme, quindi anche nei casi 2 e 5 dopo l'accelerazione iniziale.
  • Quando la mosca accelera verso l'alto (inizio del caso 2) la bilancia segna più di 105 g, perché c'è una forza totale verso l'alto che non può che essere comunicata dalla molla della bilancia.
  • Quando la mosca accelera verso il basso la bilancia segna meno di 105 g. Se la mosca cadesse con accelerazione pari a (per esempio quando è il disco volante a cadere) allora non "peserebbe" e la bilancia segnerebbe 100 g.
In realtà tra quando la mosca inizia ad accelerare verso l'alto e il momento in cui la bilancia segna la variazione di forza passa il tempo necessario a far sì che l'aria "comunichi" questa variazione alla base, ovvero il tempo necessario perché l'onda di perturbazione dell'aria, viaggiando alla velocità del suono, raggiunga il fondo della scatola. In questo caso la variazione è pressoché istantanea, ma il problema ricorda molto quello della molla slinky [2].
Il problema è simile a quello della clessidra sulla bilancia: Una clessidra a sabbia (più propriamente clepsamia) è posta su una bilancia, ed ha un meccanismo a distanza (tramite wifi) di sblocco del flusso di sabbia. A un certo istante la sabbia inizia a scendere, continua finché la clepsamia è quasi vuota e poi cessa. Cosa segna la bilancia nei vari istanti? [3]
Un problema collegato ma molto interessante è il seguente: cosa succede se invece il bicchiere è dritto e la mosca vola ad altezza costante dentro il bicchiere o sopra il bicchiere?
Ovviamente se la mosca è vicina al fondo, non dovrebbe cambiare nulla e la bilancia segnerà 105 g, ma se la mosca è molto più in alto del bicchiere, ci si aspetta che la bilancia segni 100 g. In questo caso il fatto è che il getto di aria spinto verso il basso dalla mosca a una certa altezza "esce" dal bicchiere e preme sull'ambiente circostante, come si può visualizzare pensando a un disco volante che si regge su un fascio fotonico.

Nota:

Un problema simile è quello del furgone pieno di piccioni. Ogni volta che sta per passare su un ponte, il guidatore scende e batte sul lato del cassone. Quando gli viene domandato perché, lui spiega che il furgone è al limite della tolleranza dei ponti, ma essendo pieno di piccioni, lui li spaventa così che volino e non contribuiscano al peso del veicolo.
Vedere come i MithBusters affrontano la situazione [4].
Citazioni
[2] Quando si fa cadere una molla slinky http://fisicax.complexworld.net/meccanica/la-molla-slinky si vede che l'estremo inferiore della molla non si sposta finché non viene raggiunto dall'estremo superiore (che cade con accelerazione maggiore di g). Il fatto è che le perturbazioni nei materiali viaggiano con la velocità del suono, e questa nella molla slinky è piuttosto bassa. Quindi il moto di caduta dell'estremo superiore diventa rapidamente supersonico e nessuna perturbazione può raggiungere l'estremo inferiore prima dell'arrivo di quello superiore.
[3] Data una clessidra sulla bilancia, abbiamo che all'inizio della caduta della sabbia c'è una accelerazione del centro di massa verso il basso, quindi la bilancia segna meno del peso della clessidra. Durante la caduta a velocità costante della sabbia la bilancia segna il peso della clessidra. Alla fine abbiamo una brusca frenatura del centro di massa (accelerazione verso l'alto) e quindi la bilancia segnerà più del peso della clessidra. Si pensi a raggruppare tutta la sabbia in un unico blocco...
[5] http://fisicax.complexworld.net/

Weighing a Gas - Peser un Gaz 

Can you weigh the gas in a closed container? The answer from Newton's laws is yes! If you weigh an "empty" compressed gas cylinder and fill it with high pressure gas, it will then weigh more on an ordinary scale since you are weighing the gas in the cylinder. This will be demonstrated with a single molecule moving vertically, but the same result is obtained with any number of molecules moving in random directions so long as the collisions between them are elastic collisions.

The difference between the average force on the bottom and top of the container is just the weight, mg, of the molecule. This can be generalized to any number of molecules traveling in random directions.

If a molecule traveling in a random direction has a y-component of velocity, it will eventually collide with the top or bottom of the container. In an elastic collision with the fixed wall, the y-component of velocity will be reversed, giving a change in momentum of twice the mass times the original velocity. The force on the wall during that brief collision is quite high, but the much smaller average force of the collision is obtained by dividing the change in momentum by the entire round-trip time to the opposite end of the container and back. Taking an average force like this allows you to determine average forces and average pressures on the walls of a container of gas.

The fact that the molecules may undergo many collisions on the way from top to bottom does not change this outcome. If a molecule has a certain momentum toward the bottom as it starts from the top, that net momentum toward the bottom will not be changed, even if it undergoes billions of collisions. It will transfer momentum to many other molecules and the particles which eventually reach the bottom with that momentum will exert the same average force as if the original molecule got there.

What do you think? If a closed truck is carrying a lot of birds, will the truck weigh less if the birds are flying around in the truck?

Is the atmospheric pressure times the area of the Earth's surface equal to the weight of the atmosphere?

Source : Weighing a Gas

La leggerezza dell'aria (e del vapor d'acqua)

La leggerezza dell'aria (e del vapor d'acqua)

L'aria, come tutto l'universo, è fatta da atomi e dunque è materialissima. Ha una massa, sulla bilancia si può pesare, urta e si fa sentire, ha proprietà insomma come il resto del mondo fisico.

Che l’aria sia a noi indispensabile non fa notizia. Si rischia di soffocare, senza aria. Nella mia stanza ora c’è aria, per fortuna, e anche nella vostra. Chiedete però a un bambino cosa c’è in quel bicchiere “vuoto” sul tavolo. La risposta, secca e indiscutibile, sarà "un bel niente”: non dice che c’è aria, no. Siccome il bicchiere “serve” per contenere acqua (o vino), il fatto che questi liquidi non siano presenti relega l’invece presentissima aria a un nulla di fatto. 

La sostanza fisica dell’aria o, più in generale, di una sostanza allo stato gassoso, è questione risolta da un sacco di tempo nel linguaggio e nella rappresentazione delle scienze fisiche ma, da un punto di vista invece della percezione intuitiva e spontanea, lascia molti dubbi da risolvere.

Il punto è che, quando la percepiamo, l’aria (o il gas) si fa sentire come un “continuo”, mobile, imprendibile, tenue e, per dirla come di solito si usa dire, rarefatto. Eppure le cose vanno diversamente. L’aria, come tutto l’universo, è fatta da atomi (uniti a formare molecole) e dunque è materialissima. Ha una massa, sulla bilancia si può pesare (con qualche cautela), urta e si fa sentire, ha proprietà insomma come il resto del mondo fisico.

Il fatto che sia allo stato gassoso la rende differente in termini di comportamento “macroscopico” (vecchia storia quella della differenza fra solido, liquido e gas, vero?) eppure siamo in grado di misurarne e di comprenderne i dettagli microscopici (ossia la sua costituzione in termini atomici o molecolari).

L’aria è un miscuglio di gas di varia natura (azoto, ossigeno molecolari, poi anidride carbonica, vapore d’acqua e una spruzzata di altri elementi) che condividono lo spazio da essi occupato, urtando le pareti del contenitore che eventualmente li racchiude. Questi urti esercitano una forza media che viene di solito detta “pressione” del gas. Alta pressione, grande forza sulle pareti.

image

La pressione dell’aria non è il suo peso, come di solito viene riportato da testi o siti di scienza pasticciati e pasticcioni. Se fosse il suo peso allora verrebbe esercitata, la pressione, unicamente dall’alto verso il basso, verticalmente, come fa ogni bravo peso.

Allora sì che saremmo nei guai, tutti schiacciati da una forza enorme (l’atmosfera, in effetti, è un’unità di misura della pressione che non si dovrebbe più utilizzare perché ora si deve esprimere tutto nel “Sistema Internazionale” di misura, che per la pressione utilizza il “pascal”, ovvero il newton(forza) su metro quadrato).

Quant’è, ora, nella mia stanza, la pressione? Circa 98000 newton su metro quadrato (pascal), ovvero 9,8 newton su centimetro quadrato o, se preferite, quello che potrebbe fare una massa di un chilogrammo su questo centimetro quadrato. Perché non ci fa male? Perché questa forza è presente ed equilibrata in tutte le possibili direzioni spaziali: è dovuta agli urti delle molecole di aria, che schizzano in tutte le direzioni, senza preferenze.

Dunque la pressione non è “in giù”, ma anche in qua, in là, in su e così via.

Le molecole schizzano a quali velocità? Molto grandi, secondo le nostre idee di rapidità. Svariate centinaia di metri al secondo: quanto precisamente valga la velocità è legato al nostro termometro. Quando misuriamo la temperatura di un gas (dell’aria della nostra stanza) stiamo assegnando in realtà un numero alla rapidità con la quale, in media, le molecole stanno per l’appunto schizzando nel loro moto casuale e frenetico.

Tanto maggiore è la velocità in media delle particelle (in media: ognuna di esse ha la sua velocità differente da quella delle altre, anche se poi nel loro complesso si muovono con una certa “prevedibilità” statistica) tanto più alto è il valore della temperatura. Se si preferisce, è possibile dunque pensare alla temperatura di un gas come a una lettura di un suo comportamento atomico.

La pressione misura le “spinte” delle particelle di gas, la temperatura la loro velocità. C’è un collegamento fra questi due aspetti microscopici? Certo che sì: studi di ormai duecento anni fa, hanno stabilito in modo chiaro e puntuale che in un dato volume di gas, alla presenza di un certo quantitativo di materia, la pressione e la temperatura sono legate da una semplice relazione di proporzionalità diretta: se si raddoppia la temperatura, si assiste a un aumento di pari proporzione (un raddoppio, dunque) anche della pressione. Se, attenzione, il volume occupato dal gas non cambia. Potrebbe altresì essere che si cerchi di stabilire una relazione fra il volume occupato dal gas e la sua temperatura, oppure la sua pressione. Di nuovo, la soluzione è sorprendentemente semplice (pur di considerare trasformazioni “ideali” di sostanze gassose, nelle quali fenomeni come la formazione di stati di aggregazione liquida o solida non avvengano) e prevede che, mantenendo costante la temperatura del gas, al raddoppio del suo volume, ne consegua un dimezzamento della sua pressione. Oppure, mantenendo costante la pressione della sostanza, se il volume dimezza la temperatura deve raddoppiare.

image

Vi sono poi casi più generali, nei quali sia la temperatura, che la pressione e il volume di un gas mutano in una trasformazione. Per esempio, succede che un volume di aria espanso rapidamente non permetta lo scambio di energia termica (calore) e questo conduce a una diminuzione sia della pressione che della temperatura del gas. Questo è un fenomeno particolarmente interessante da studiare quando si tiene conto che nella miscela di gas che costituiscono l’atmosfera terrestre c’è il vapore d’acqua. In corrispondenza del raffreddamento causato dall’espansione si può assistere alla condensazione (trasformazione da gas a liquido) dell’acqua. Questo meccanismo è fondamentale per comprendere la formazione delle nubi in corrispondenza, infatti, della salita in quota di masse di aria che si espandono (minore pressione) raffreddandosi.

Anche l’umidità relativa dell’aria è un “noto ignoto” dei nostri bollettini meteo. Quando leggiamo sul misuratore di umidità (tabelle di solito che riportano RH come sigla) il dato “60%” cosa intende indicare? (A proposito, il misuratore in questione si chiama igrometro o anche, in certi casi, psicrometro). Semplice, o quasi: vuol dire che nella nostra aria è presente una massa di vapore d’acqua (necessariamente gassoso, altrimenti sarebbe in formato liquido visibile, gocce insomma) pari al 60% (frazione dello 0,6) della quantità di vapore che, a questa stessa temperatura dell’aria che stiamo considerando, sarebbe al limite della condensazione. In altre parole: a una data temperatura il vapore d’acqua rimane gassoso fino a una certa pressione (la “tensione di vapore saturo”), poi diventa liquido. Se di vapore ce n’è di meno di quello necessario ad avere la pressione “satura”, allora non si forma liquido. La misura della frazione di vapore presente riferita a quello di saturazione è proprio l’umidità relativa.

Attenzione dunque: il numero 60%, per esempio, non ci dice quanto vapore in assoluto c’è. Per saperlo bisogna conoscere la temperatura dell’aria.

Potrebbe ben essere che un’umidità relativa al 60% implichi meno vapore d’acqua (umidità assoluta) di un’umidità relativa al 50%, se quest’ultima è riferita a una temperatura relativamente elevata.

Source : La leggerezza dell'aria (e del vapor d'acqua)

Mann -Whitney - Wilcoxon  TEST - EXAMPLES

Tests with Matched Samples


Mann Whitney U Test (Wilcoxon Rank Sum Test)


The modules on hypothesis testing presented techniques for testing the equality of means in two independent samples. An underlying assumption for appropriate use of the tests described was that the continuous outcome was approximately normally distributed or that the samples were sufficiently large (usually n1> 30 and n2> 30) to justify their use based on the Central Limit Theorem. When comparing two independent samples when the outcome is not normally distributed and the samples are small, a nonparametric test is appropriate.

A popular nonparametric test to compare outcomes between two independent groups is the Mann Whitney U test. The Mann Whitney U test, sometimes called the Mann Whitney Wilcoxon Test or the Wilcoxon Rank Sum Test, is used to test whether two samples are likely to derive from the same population (i.e., that the two populations have the same shape). Some investigators interpret this test as comparing the medians between the two populations. Recall that the parametric test compares the means (H0: μ12) between independent groups.

In contrast, the null and two-sided research hypotheses for the nonparametric test are stated as follows:

H0: The two populations are equal versus

H1: The two populations are not equal.

This test is often performed as a two-sided test and, thus, the research hypothesis indicates that the populations are not equal as opposed to specifying directionality. A one-sided research hypothesis is used if interest lies in detecting a positive or negative shift in one population as compared to the other. The procedure for the test involves pooling the observations from the two samples into one combined sample, keeping track of which sample each observation comes from, and then ranking lowest to highest from 1 to n1+n2, respectively.

Example:

Consider a Phase II clinical trial designed to investigate the effectiveness of a new drug to reduce symptoms of asthma in children. A total of n=10 participants are randomized to receive either the new drug or a placebo. Participants are asked to record the number of episodes of shortness of breath over a 1 week period following receipt of the assigned treatment. The data are shown below.

Placebo 7 5 6 4 12
New Drug 3 6 4 2 1

Is there a difference in the number of episodes of shortness of breath over a 1 week period in participants receiving the new drug as compared to those receiving the placebo? By inspection, it appears that participants receiving the placebo have more episodes of shortness of breath, but is this statistically significant?

In this example, the outcome is a count and in this sample the data do not follow a normal distribution.

Frequency Histogram of Number of Episodes of Shortness of Breath

Frequency histogram of episodes of shortness of breath

In addition, the sample size is small (n1=n2=5), so a nonparametric test is appropriate. The hypothesis is given below, and we run the test at the 5% level of significance (i.e., α=0.05).

H0: The two populations are equal versus

H1: The two populations are not equal.

Note that if the null hypothesis is true (i.e., the two populations are equal), we expect to see similar numbers of episodes of shortness of breath in each of the two treatment groups, and we would expect to see some participants reporting few episodes and some reporting more episodes in each group. This does not appear to be the case with the observed data. A test of hypothesis is needed to determine whether the observed data is evidence of a statistically significant difference in populations.

The first step is to assign ranks and to do so we order the data from smallest to largest. This is done on the combined or total sample (i.e., pooling the data from the two treatment groups (n=10)), and assigning ranks from 1 to 10, as follows. We also need to keep track of the group assignments in the total sample.

  Total Sample

(Ordered Smallest to Largest)

Ranks
Placebo New Drug Placebo New Drug Placebo New Drug
7 3 1 1
5 6 2 2
6 4 3 3
4 2 4 4 4.5 4.5
12 1 5 6
6 6 7.5 7.5
7 9
12 10

Note that the lower ranks (e.g., 1, 2 and 3) are assigned to responses in the new drug group while the higher ranks (e.g., 9, 10) are assigned to responses in the placebo group. Again, the goal of the test is to determine whether the observed data support a difference in the populations of responses. Recall that in parametric tests (discussed in the modules on hypothesis testing), when comparing means between two groups, we analyzed the difference in the sample means relative to their variability and summarized the sample information in a test statistic. A similar approach is employed here. Specifically, we produce a test statistic based on the ranks.

First, we sum the ranks in each group. In the placebo group, the sum of the ranks is 37; in the new drug group, the sum of the ranks is 18. Recall that the sum of the ranks will always equal n(n+1)/2. As a check on our assignment of ranks, we have n(n+1)/2 = 10(11)/2=55 which is equal to 37+18 = 55.

For the test, we call the placebo group 1 and the new drug group 2 (assignment of groups 1 and 2 is arbitrary). We let R1 denote the sum of the ranks in group 1 (i.e., R1=37), and R2denote the sum of the ranks in group 2 (i.e., R2=18). If the null hypothesis is true (i.e., if the two populations are equal), we expect R1 and R2 to be similar. In this example, the lower values (lower ranks) are clustered in the new drug group (group 2), while the higher values (higher ranks) are clustered in the placebo group (group 1). This is suggestive, but is the observed difference in the sums of the ranks simply due to chance? To answer this we will compute a test statistic to summarize the sample information and look up the corresponding value in a probability distribution.

Test Statistic for the Mann Whitney U Test

The test statistic for the Mann Whitney U Test is denoted U and is the smaller of U1 and U2, defined below.

where R1 = sum of the ranks for group 1 and R2 = sum of the ranks for group 2.

For this example,

In our example, U=3. Is this evidence in support of the null or research hypothesis? Before we address this question, we consider the range of the test statistic U in two different situations.

Situation #1

Consider the situation where there is complete separation of the groups, supporting the research hypothesis that the two populations are not equal. If all of the higher numbers of episodes of shortness of breath (and thus all of the higher ranks) are in the placebo group, and all of the lower numbers of episodes (and ranks) are in the new drug group and that there are no ties, then:

and

Therefore, when there is clearly a difference in the populations, U=0.

Situation #2

Consider a second situation where low and high scores are approximately evenly distributed in the two groups, supporting the null hypothesis that the groups are equal. If ranks of 2, 4, 6, 8 and 10 are assigned to the numbers of episodes of shortness of breath reported in the placebo group and ranks of 1, 3, 5, 7 and 9 are assigned to the numbers of episodes of shortness of breath reported in the new drug group, then:

 R1= 2+4+6+8+10 = 30 and R2= 1+3+5+7+9 = 25,

and

When there is clearly no difference between populations, then U=10.

Thus, smaller values of U support the research hypothesis, and larger values of U support the null hypothesis.

Image of an old key signifying a key concept

Key Concept:

For any Mann-Whitney U test, the theoretical range of U is from 0 (complete separation between groups, H0 most likely false and H1 most likely true) to n1*n2 (little evidence in support of H1).

 

In every test, U1+U2   is always equal to n1*n2. In the example above, U can range from 0 to 25 and smaller values of U support the research hypothesis (i.e., we reject H0if U is small). The procedure for determining exactly when to reject H0 is described below.

In every test, we must determine whether the observed U supports the null or research hypothesis. This is done following the same approach used in parametric testing. Specifically, we determine a critical value of U such that if the observed value of U is less than or equal to the critical value, we reject H0 in favor of H1 and if the observed value of U exceeds the critical value we do not reject H0.

The critical value of U can be found in the table below. To determine the appropriate critical value we need sample sizes (for Example: n1=n2=5) and our two-sided level of significance (α=0.05). For Example 1 the critical value is 2, and the decision rule is to reject H0 if U < 2. We do not reject H0 because 3 > 2. We do not have statistically significant evidence at α =0.05, to show that the two populations of numbers of episodes of shortness of breath are not equal. However, in this example, the failure to reach statistical significance may be due to low power. The sample data suggest a difference, but the sample sizes are too small to conclude that there is a statistically significant difference.

Table of Critical Values for U

 

Example:

A new approach to prenatal care is proposed for pregnant women living in a rural community. The new program involves in-home visits during the course of pregnancy in addition to the usual or regularly scheduled visits. A pilot randomized trial with 15 pregnant women is designed to evaluate whether women who participate in the program deliver healthier babies than women receiving usual care. The outcome is the APGAR score measured 5 minutes after birth. Recall that APGAR scores range from 0 to 10 with scores of 7 or higher considered normal (healthy), 4-6 low and 0-3 critically low. The data are shown below.

Usual Care 8 7 6 2 5 8 7 3
New Program 9 9 7 8 10 9 6

Is there statistical evidence of a difference in APGAR scores in women receiving the new and enhanced versus usual prenatal care? We run the test using the five-step approach.

  •  Step 1. Set up hypotheses and determine level of significance.

H0: The two populations are equal versus

H1: The two populations are not equal.  α =0.05

  • Step 2.  Select the appropriate test statistic.

Because APGAR scores are not normally distributed and the samples are small (n1=8 and n2=7), we use the Mann Whitney U test. The test statistic is U, the smaller of

where R1 and R2 are the sums of the ranks in groups 1 and 2, respectively.

  • Step 3. Set up decision rule.

The appropriate critical value can be found in the table above. To determine the appropriate critical value we need sample sizes (n1=8 and n2=7) and our two-sided level of significance (α=0.05). The critical value for this test with n1=8, n2=7 and α =0.05 is 10 and the decision rule is as follows: Reject H0 if U < 10.

  • Step 4. Compute the test statistic.

The first step is to assign ranks of 1 through 15 to the smallest through largest values in the total sample, as follows:

Total Sample

(Ordered Smallest to Largest)

Ranks
Usual Care New Program Usual Care New Program Usual Care New Program
8 9 2 1
7 8 3 2
6 7 5 3
2 8 6 6 4.5 4.5
5 10 7 7 7 7
8 9 7 7
7 6 8 8 10.5 10.5
3 8 8 10.5 10.5
9 13.5
9 13.5
10 15
R1=45.5 R2=74.5

Next, we sum the ranks in each group. In the usual care group, the sum of the ranks is R1=45.5 and in the new program group, the sum of the ranks is R2=74.5. Recall that the sum of the ranks will always equal n(n+1)/2.   As a check on our assignment of ranks, we have n(n+1)/2 = 15(16)/2=120 which is equal to 45.5+74.5 = 120.

We now compute U1 and U2, as follows:

Thus, the test statistic is U=9.5.

  • Step 5.  Conclusion:

We reject H0 because 9.5 < 10. We have statistically significant evidence at α =0.05 to show that the populations of APGAR scores are not equal in women receiving usual prenatal care as compared to the new program of prenatal care.

 

Example:

A clinical trial is run to assess the effectiveness of a new anti-retroviral therapy for patients with HIV. Patients are randomized to receive a standard anti-retroviral therapy (usual care) or the new anti-retroviral therapy and are monitored for 3 months. The primary outcome is viral load which represents the number of HIV copies per milliliter of blood. A total of 30 participants are randomized and the data are shown below.

Standard Therapy 7500 8000 2000 550 1250 1000 2250 6800 3400 6300 9100 970 1040 670 400
New Therapy 400 250 800 1400 8000 7400 1020 6000 920 1420 2700 4200 5200 4100 undetectable

Is there statistical evidence of a difference in viral load in patients receiving the standard versus the new anti-retroviral therapy?

  • Step 1. Set up hypotheses and determine level of significance.

H0: The two populations are equal versus

H1: The two populations are not equal. α=0.05

  • Step 2. Select the appropriate test statistic.

Because viral load measures are not normally distributed (with outliers as well as limits of detection (e.g., "undetectable")), we use the Mann-Whitney U test. The test statistic is U, the smaller of

where R1 and R2 are the sums of the ranks in groups 1 and 2, respectively.

  • Step 3. Set up the decision rule.

The critical value can be found in the table of critical values based on sample sizes (n1=n2=15) and a two-sided level of significance (α=0.05). The critical value 64 and the decision rule is as follows: Reject H0 if U < 64.

  • Step 4. Compute the test statistic.

The first step is to assign ranks of 1 through 30 to the smallest through largest values in the total sample. Note in the table below, that the "undetectable" measurement is listed first in the ordered values (smallest) and assigned a rank of 1.

Total Sample (Ordered Smallest to Largest) Ranks
Standard

Anti-retroviral

New

Anti-retroviral

Standard

Anti-retroviral

New

Anti-retroviral

Standard

Anti-retroviral

New

Anti-retroviral

7500 400 undetectable 1
8000 250 250 2
2000 800 400 400 3.5 3.5
550 1400 550 5
1250 8000 670 6
1000 7400 800 7
2250 1020 920 8
6800 6000 970 9
3400 920 1000 10
6300 1420 1020 11
9100 2700 1040 12
970 4200 1250 13
1040 5200 1400 14
670 4100 1420 15
400 undetectable 2000 16
2250 17
2700 18
3400 19
4100 20
4200 21
5200 22
6000 23
6300 24
6800 25
7400 26
7500 27
8000 8000 28.5 28.5
9100 30
R1 = 245 R2 = 220

Next, we sum the ranks in each group. In the standard anti-retroviral therapy group, the sum of the ranks is R1=245; in the new anti-retroviral therapy group, the sum of the ranks is R2=220. Recall that the sum of the ranks will always equal n(n+1)/2. As a check on our assignment of ranks, we have n(n+1)/2 = 30(31)/2=465 which is equal to 245+220 = 465.  We now compute U1 and U2, as follows,

Thus, the test statistic is U=100.

  • Step 5.  Conclusion.

We do not reject H0 because 100 > 64. We do not have sufficient evidence to conclude that the treatment groups differ in viral load.

APPARIED

This section describes nonparametric tests to compare two groups with respect to a continuous outcome when the data are collected on matched or paired samples. The parametric procedure for doing this was presented in the modules on hypothesis testing for the situation in which the continuous outcome was normally distributed. This section describes procedures that should be used when the outcome cannot be assumed to follow a normal distribution. There are two popular nonparametric tests to compare outcomes between two matched or paired groups. The first is called the Sign Test and the second the Wilcoxon Signed Rank Test.

Recall that when data are matched or paired, we compute difference scores for each individual and analyze difference scores. The same approach is followed in nonparametric tests. In parametric tests, the null hypothesis is that the mean difference (μd) is zero. In nonparametric tests, the null hypothesis is that the median difference is zero.

Example:

Consider a clinical investigation to assess the effectiveness of a new drug designed to reduce repetitive behaviors in children affected with autism. If the drug is effective, children will exhibit fewer repetitive behaviors on treatment as compared to when they are untreated. A total of 8 children with autism enroll in the study. Each child is observed by the study psychologist for a period of 3 hours both before treatment and then again after taking the new drug for 1 week. The time that each child is engaged in repetitive behavior during each 3 hour observation period is measured. Repetitive behavior is scored on a scale of 0 to 100 and scores represent the percent of the observation time in which the child is engaged in repetitive behavior. For example, a score of 0 indicates that during the entire observation period the child did not engage in repetitive behavior while a score of 100 indicates that the child was constantly engaged in repetitive behavior. The data are shown below.

Child Before Treatment After 1 Week of Treatment
1 85 75
2 70 50
3 40 50
4 65 40
5 80 20
6 75 65
7 55 40
8 20 25

Looking at the data, it appears that some children improve (e.g., Child 5 scored 80 before treatment and 20 after treatment), but some got worse (e.g., Child 3 scored 40 before treatment and 50 after treatment). Is there statistically significant improvement in repetitive behavior after 1 week of treatment?.

Because the before and after treatment measures are paired, we compute difference scores for each child. In this example, we subtract the assessment of repetitive behaviors after treatment from that measured before treatment so that difference scores represent improvement in repetitive behavior. The question of interest is whether there is significant improvement after treatment.

Child Before

Treatment

After 1 Week

of Treatment

Difference

(Before-After)

1 85 75 10
2 70 50 20
3 40 50 -10
4 65 40 25
5 80 20 60
6 75 65 10
7 55 40 15
8 20 25 -5

 

In this small sample, the observed difference (or improvement) scores vary widely and are subject to extremes (e.g., the observed difference of 60 is an outlier). Thus, a nonparametric test is appropriate to test whether there is significant improvement in repetitive behavior before versus after treatment. The hypotheses are given below.

H0: The median difference is zero  versus

H1: The median difference is positive α=0.05

In this example, the null hypothesis is that there is no difference in scores before versus after treatment. If the null hypothesis is true, we expect to see some positive differences (improvement) and some negative differences (worsening). If the research hypothesis is true, we expect to see more positive differences after treatment as compared to before.

The Sign Test


The Sign Test is the simplest nonparametric test for matched or paired data. The approach is to analyze only the signs of the difference scores, as shown below:

Child Before

Treatment

After 1 Week

of Treatment

Difference

(Before-After)

Sign
1 85 75 10 +
2 70 50 20 +
3 40 50 -10 -
4 65 40 25 +
5 80 20 60 +
6 75 65 10 +
7 55 40 15 +
8 20 25 -5 -

If the null hypothesis is true (i.e., if the median difference is zero) then we expect to see approximately half of the differences as positive and half of the differences as negative. If the research hypothesis is true, we expect to see more positive differences.

Test Statistic for the Sign Test

The test statistic for the Sign Test is the number of positive signs or number of negative signs, whichever is smaller. In this example, we observe 2 negative and 6 positive signs. Is this evidence of significant improvement or simply due to chance?

Determining whether the observed test statistic supports the null or research hypothesis is done following the same approach used in parametric testing. Specifically, we determine a critical value such that if the smaller of the number of positive or negative signs is less than or equal to that critical value, then we reject H0 in favor of H1 and if the smaller of the number of positive or negative signs is greater than the critical value, then we do not reject H0. Notice that this is a one-sided decision rule corresponding to our one-sided research hypothesis (the two-sided situation is discussed in the next example).

Table of Critical Values for the Sign Test

The critical values for the Sign Test are in the table below.

 

To determine the appropriate critical value we need the sample size, which is equal to the number of matched pairs (n=8) and our one-sided level of significance α=0.05. For this example, the critical value is 1, and the decision rule is to reject H0 if the smaller of the number of positive or negative signs < 1. We do not reject H0 because 2 > 1. We do not have sufficient evidence at α=0.05 to show that there is improvement in repetitive behavior after taking the drug as compared to before. In essence, we could use the critical value to decide whether to reject the null hypothesis. Another alternative would be to calculate the p-value, as described below.

Computing P-values for the Sign Test

With the Sign test we can readily compute a p-value based on our observed test statistic. The test statistic for the Sign Test is the smaller of the number of positive or negative signs and it follows a binomial distribution with n = the number of subjects in the study and p=0.5 (See the module on Probability for details on the binomial distribution). In the example above, n=8 and p=0.5 (the probability of success under H0).

By using the binomial distribution formula:

we can compute the probability of observing different numbers of successes during 8 trials. These are shown in the table below.

x=Number of Successes P(x successes)
0 0.0039
1 0.0313
2 0.1094
3 0.2188
4 0.2734
5 0.2188
6 0.1094
7 0.0313
8 0.0039

 

Recall that a p-value is the probability of observing a test statistic as or more extreme than that observed. We observed 2 negative signs. Thus, the p-value for the test is: p-value = P(x <2). Using the table above,

Because the p-value = 0.1446 exceeds the level of significance α=0.05, we do not have statistically significant evidence that there is improvement in repetitive behaviors after taking the drug as compared to before.  Notice in the table of binomial probabilities above, that we would have had to observe at most 1 negative sign to declare statistical significance using a 5% level of significance. Recall the critical value for our test was 1 based on the table of critical values for the Sign Test (above).

One-Sided versus Two-Sided Test

In the example looking for differences in repetitive behaviors in autistic children, we used a one-sided test (i.e., we hypothesize improvement after taking the drug). A two sided test can be used if we hypothesize a difference in repetitive behavior after taking the drug as compared to before. From the table of critical values for the Sign Test, we can determine a two-sided critical value and again reject H0 if the smaller of the number of positive or negative signs is less than or equal to that two-sided critical value. Alternatively, we can compute a two-sided p-value. With a two-sided test, the p-value is the probability of observing many or few positive or negative signs. If the research hypothesis is a two sided alternative (i.e., H1: The median difference is not zero), then the p-value is computed as: p-value = 2*P(x < 2). Notice that this is equivalent to p-value = P(x < 2) + P(x > 6), representing the situation of few or many successes. Recall in two-sided tests, we reject the null hypothesis if the test statistic is extreme in either direction. Thus, in the Sign Test, a two-sided p-value is the probability of observing few or many positive or negative signs. Here we observe 2 negative signs (and thus 6 positive signs). The opposite situation would be 6 negative signs (and thus 2 positive signs as n=8). The two-sided p-value is the probability of observing a test statistic as or more extreme in either direction (i.e.,

When Difference Scores are Zero

There is a special circumstance that needs attention when implementing the Sign Test which arises when one or more participants have difference scores of zero (i.e., their paired measurements are identical). If there is just one difference score of zero, some investigators drop that observation and reduce the sample size by 1 (i.e., the sample size for the binomial distribution would be n-1). This is a reasonable approach if there is just one zero. However, if there are two or more zeros, an alternative approach is preferred.

  • If there is an even number of zeros, we randomly assign them positive or negative signs.
  • If there is an odd number of zeros, we randomly drop one and reduce the sample size by 1, and then randomly assign the remaining observations positive or negative signs. The following example illustrates the approach.

Example:

A new chemotherapy treatment is proposed for patients with breast cancer.   Investigators are concerned with patient's ability to tolerate the treatment and assess their quality of life both before and after receiving the new chemotherapy treatment.   Quality of life (QOL) is measured on an ordinal scale and for analysis purposes, numbers are assigned to each response category as follows: 1=Poor, 2= Fair, 3=Good, 4= Very Good, 5 = Excellent.   The data are shown below.

Patient QOL Before

Chemotherapy Treatment

QOL After

Chemotherapy Treatment

1 3 2
2 2 3
3 3 4
4 2 4
5 1 1
6 3 4
7 2 4
8 3 3
9 2 1
10 1 3
11 3 4
12 2 3

The question of interest is whether there is a difference in QOL after chemotherapy treatment as compared to before.

  • Step 1. Set up hypotheses and determine level of significance.

H0: The median difference is zero versus

H1: The median difference is not zero α=0.05

  • Step 2. Select the appropriate test statistic.

The test statistic for the Sign Test is the smaller of the number of positive or negative signs.

  • Step 3. Set up the decision rule.

The appropriate critical value for the Sign Test can be found in the table of critical values for the Sign Test. To determine the appropriate critical value we need the sample size (or number of matched pairs, n=12), and our two-sided level of significance α=0.05.

The critical value for this two-sided test with n=12 and a =0.05 is 2, and the decision rule is as follows: Reject H0 if the smaller of the number of positive or negative signs < 2.

  • Step 4. Compute the test statistic.

Because the before and after treatment measures are paired, we compute difference scores for each patient. In this example, we subtract the QOL measured before treatment from that measured after.

Patient QOL Before Chemotherapy Treatment QOL After

Chemotherapy Treatment

Difference

(After-Before)

1 3 2 -1
2 2 3 1
3 3 4 1
4 2 4 2
5 1 1 0
6 3 4 1
7 2 4 2
8 3 3 0
9 2 1 -1
10 1 3 2
11 3 4 1
12 2 3 1

We now capture the signs of the difference scores and because there are two zeros, we randomly assign one negative sign (i.e., "-" to patient 5)   and one positive sign (i.e., "+" to patient 8), as follows:

Patient QOL Before Chemotherapy Treatment QOL After

Chemotherapy Treatment

Difference

(After-Before)

Sign
1 3 2 -1 -
2 2 3 1 +
3 3 4 1 +
4 2 4 2 +
5 1 1 0 -
6 3 4 1 +
7 2 4 2 +
8 3 3 0 +
9 2 1 -1 -
10 1 3 2 +
11 3 4 1 +
12 2 3 1 +

The test statistic is the number of negative signs which is equal to 3.

  • Step 5. Conclusion.

We do not reject H0 because 3 > 2. We do not have statistically significant evidence at α=0.05 to show that there is a difference in QOL after chemotherapy treatment as compared to before.

We can also compute the p-value directly using the binomial distribution with n = 12 and p=0.5.   The two-sided p-value for the test is p-value = 2*P(x < 3) (which is equivalent to p-value = P(x < 3) + P(x > 9)). Again, the two-sided p-value is the probability of observing few or many positive or negative signs. Here we observe 3 negative signs (and thus 9 positive signs). The opposite situation would be 9 negative signs (and thus 3 positive signs as n=12). The two-sided p-value is the probability of observing a test statistic as or more extreme in either direction (i.e., P(x < 3) + P(x > 9)). We can compute the p-value using the binomial formula or a statistical computing package, as follows:

Because the p-value = 0.1460 exceeds the level of significance (α=0.05) we do not have statistically significant evidence at α =0.05 to show that there is a difference in QOL after chemotherapy treatment as compared to before.

Picture of an old key signifying a Key Concept

Key Concept:

 

In each of the two previous examples, we failed to show statistical significance because the p-value was not less than the stated level of significance. While the test statistic for the Sign Test is easy to compute, it actually does not take much of the information in the sample data into account. All we measure is the difference in participant's scores, and do not account for the magnitude of those differences.

 

Equation de la chaleur : Simulation numérique

La simulation numérique de l'équation de la chaleur pose parfois quelques problèmes, et pas seulement de capacité de calcul. Nous allons voir en effet que tous les algorithmes ne sont pas équivalents, loin de là...

Nous vous proposons ci-dessous des illustrations des phénomènes décrits dans ce texte, ainsi que les programmes qui ont servi à sa réalisations. Ceux-ci sont commentés, afin que vous puissiez si vous le voulez les modifier sans trop de difficulté, et tester ainsi les méthodes mises en jeu avec vos propres paramètres.

Table des matières

  • Résumé, position du problème
  • Méthode explicite
  • Méthode implicite

Résumé, position du problème

Nous nous intéressons ici au traitement numérique de l'équation de la chaleur :

Nous considérons ce problème sur un domaine borné en espace (0 < x < 1), et pour des temps positifs (t > 0). Nous imposons également les conditions initales et de bord suivantes :


et

Rappelons que la solution exacte du problème est alors la fonction :

Connaissant cette solution exacte, il nous est possible d'apprécier la qualité des différentes méthodes numériques, de calcul approché de cette solution. Dans tous les cas, nn se donne donc un pas spatial h, c'est-à-dire que l'on cherche à calculer les valeurs de notre solution u aux points d'abscisse 0, h, 2h,..., 1. On doit aussi se restreindre à un ensemble discret d'instants auxquels on prétend calculer ces valeurs, on fixe donc un pas temporel ket l'on cherchera à calculer les valeurs de u aux instants k, 2k, 3k, ...
uin désignera la valeur calculée (approchée) de la solution à l'instant nk et au point d'abscisse i h.
Voici des animations illustrant les différences entre deux méthodes de résolution numérique.

 

Un premier essai : méthode explicite

Pour cette méthode, on approche la dérivée temporelle par le rapport (uin+1 - uin)/k ; et la dérivée seconde par rapport à la variable d'espace par le rapport (ui+1n + ui-1n -2 uin)/h2.
L'équation de la chaleur discrétisée est ici :C'est le modèle utilisé dans l'illustration ci-contre. Disponible également, le programme chaleurexpl, version matlab ou scilab.

Code source de l'applet.

N.B. Les plus patient observerons que la méthode semble marcher pour les deux plus petites valeurs de k. C'est normal : elles sont en dessous du seuil déterminé dans le texte !

 

Deuxième essai : méthode implicite

La seule différence par rapport à la méthode précédente est que cette fois, on approche la dérivée temporelle par le rapport (uin - uin-1)/k.
Après décalage d'indices, l'équation de la chaleur discrétisée est cette fois :Là aussi, ce modèle est illustré ci-contre. Disponible également, le programme chaleurimpl, version matlab ou scilab.

Code source de l'applet.

N.B. La courbe semble un peu moins régulière pour les petites valeurs de k, ce qui est troublant, puisque l'on s'attend à ce que la méthode soit plus précise lorsque le pas temporel est petit. En réalité, il n'en est rien : il y a un peu de "bruit" dû à des problèmes d'arrondis (nécessaires dans tout calcul numérique) quel que soit le pas temporel, mais lorsque celui-ci est plus grand, la courbe bouge plus à chaque étape de calcul et de ce fait on perçoit moins ce phénomène.

Pour les explications de ces phénomènes, nous renvoyons une fois de plus au texte...
Source : Thomas Chomette, version ps ou pdf.

Animations, applications, logiciels, simulations de physique chimie

Animations, applications de physique chimie

  1. Logiciels, applications
  2. Modèles de documents, astuces
  3. Animations, simulations de chimie
  4. Animations, simulations de physique :
  5. D'autres sites d'animations

LOGICIELS, APPLICATIONS

Retour en haut de la page

FICHIERS COMMENTAIRES
Un logiciel de lecture et de traitements des vidéos : avimeca2 v.2.7.31 (18/04/2006) :
avimeca
Ce programme très utile a été créé par Alain Le Gall, professeur au lycée Kerichen de Brest. Merci à lui pour ce logiciel très pratique. On retrouve ce lien dans la page vidéo de ce site
Un logiciel de conversion audio et vidéo multiformats :
superconversion
Convertissez vos fichiers audios, et surtout vidéos d'un format à un autre : wmv en avi, avi en mp4 ... Peut-être intéressant pour convertir des vidéos et les utiliser avec aviméca (qui ne supporte que certains formats). On retrouve ce lien dans la page vidéo de ce site
Petit programme de capture d'écran Ce programme permet de faire des photos de tout ou une partie de l'écran, pour faire une notice de logiciel pour les élèves, c'est l'idéal. Merci à Jean-Paul Bellenger, auteur de ce programme.
Raswin : logiciel de visualisation de molécules :
raswin
Dézippez le dossier puis chercher "raswin.exe". Le logiciel est alors lancé, il suffit d'ouvrir une des molécules enregistrées et on peut l'observer sous différentes formes : sphères accolées, liaisons en bâtonnets ...
Calculatrice :
calculplus
Une calculatrice scientifique sur votre ordinateur
Logiciel Dynamic version 2.53 :
dynamic
Le logiciel de Jacques Prieur qui permet, entre autres, le pointage de vidéo et la simulation de lancement de projectile et de satellites
Logiciel Regressi version 2.70 :
regressi
Version de démonstration du logiciel Regressi version 2.70 de Jean-Michel Millet, association Evariste. A l'aide de ce logiciel, on trace aisément des courbes, on peut aussi utiliser la méthode d'Euler (calcul avec indice i+1, i-1)
Application permettant le tri des déchets au laboratoire de chimie :
tri
Une fois le dossier dézippé, on clique sur le fichier exécutable Tri_sel.exe pour lancer l'application. Celle-ci a été créée par JP Kuchly
Chronomètre :
freewatch
Ce chronomètre sur ordinateur permet la prise de plusieurs temps successifs (lap), il vous permettra de faire soit des manipulations en commun avec les élèves, soit de chronométrer de petites interrogations par exemple !
Synchronie :
synchronie
Cette version de synchronie ne permet pas de faire d'acquisitions mais permet la visualisation des fichiers mis à disposition sur ce site ou enregistrés dans votre lycée.
Logiciel d'"acoustique" winoscillo :
winoscillo
Ce logiciel permet de visualiser le signal sonore capté par la carte son d'un ordinateur ou de visualiser directement sa décomposition en série de Fourier. Il y a des options de curseurs et de déclenchement et un petit générateur de sons intégré. Merci à Jean-Noël Haas, l'auteur de ce logiciel.

MODÈLES DE DOCUMENTS, ASTUCES, DIVERS

Retour en haut de la page

Modèle de document Word pour schémas de physique et de chimie :
schemscience
Ce modèle de document Word a été créé par Jean Le Bris, il s'insère dans word et propose des barres d'outils avec des schémas tout fait de matériel de physique (électricité) et de chimie
Pour installer ce modèle, il faut accéder au répertoir de modèles de documents Word : C:\Documents and Settings\Administrateur\Application Data\Microsoft\Modèles ; le dossier Application Data est un dossier caché !
Modèle de document Word pour création de repères :
repere
Ce modèle de document Word a également été créé par Jean Le Bris, il permet de créer toute sorte de repères : papier millimétré au format voulu, quadrillage logarythmique ...
Pour installer ce modèle, il faut accéder au répertoir de modèles de documents Word : C:\Documents and Settings\Administrateur\Application Data\Microsoft\Modèles ; le dossier Application Data est un dossier caché !
Modèle de document Word pour sciences physiques :
sciencesphys
Ce modèle a été créé par Denis Lasperches, il permet de simplifier l'écriture de cours ou de contrôles pour les profs de sciences physiques : avec ce modèle il sera facile d'insérer des formules d'ions, des puissances de dix, des pictogrammes de sécurité, des molécules usuelles ... un gain de temps précieux !
Pour installer ce modèle, il faut accéder au répertoire de modèles de documents Word : C:\Documents and Settings\Administrateur\Application Data\Microsoft\Modèles ; le dossier Application Data est un dossier caché !
Une fonctionnalité de word que j'ai découvert il y a peu :
zoom
Ce petit fichier explique comment utiliser une fonctionnalité de l'impression Word qui permet de mettre deux A4, réduits en A5, dans un A4 paysage. Cela évite de faire cette manip à la photocopieuse !
La verrerie :
verrerie
Ce fichier Word rassemble quelques éléments de verrerie courants qui permettent de constituer les principaux schémas de chimie : béchers, éprouvettes, tubes à essais, ballons, montages à reflux ...
La verrerie bis :
verrerie bis
Ce fichier compressé, une fois dézippé, donnera naissance à un dossier où tous les éléments de verrerie sont présents sous forme de petites images, à insérer dans le traitement de texte

ANIMATIONS, SIMULATIONS DE CHIMIE

Retour en haut de la page

FICHIERS COMMENTAIRES
Mini-site internet à utiliser en intranet :
atomes
Pour accéder au menu, cliquer sur le fichier index.htm : ce site propose de découvrir le modèle particulaire de la matière, selon le niveau (5ème, 4ème ou 3ème). On découvre alors des résumés de cours et des quizz intéressants pour que chaque élève puisse tester ses connaissances.
Animation de déplacement des ions grâce à un courant électrique :
déplacement ions
L'animation est rudimentaire mais permet aux élèves de voir se déplacer les ions colorés cuivre II et permanganate sur une plaque au passage d'un courant électrique.
Diaporama : détermination du point d'équivalence d'un titrage acido-basique :
equivalence dosage
Ce document powerpoint permet de découvrir la méthode des tangentes et la méthode de l'extremum de la fonction dérivée qui permet d'obtenir les coordonnées du point d'équivalence.
Animation de la dissolution d'un cristal de NaCl dans l'eau :
dissociation nacl
Cette animation montre le rôle des molécules d'eau dans la dissolution d'un cristal d'NaCl, des légendes précisent le cristal d'NaCl, l'orientation des molécules d'eau, le phénomène de solvatation des ions ...
Animation sur le fonctionnement de la pile Daniell :
daniell

Diaporama sur le fonctionnement de la pile Daniell :
daniell bis
Cette animation et ce diaporama expliquent le passage du courant, son sens et les déplacements des ions dans les solutions et dans le pont salin
Diaporama permettant d'apprendre à construire le modèle de Lewis d'une molécule :
lewis

Retrouvez la fiche technique associée ici
Basée sur le tableau préconisé par le B.O, ce diaporama explique la construction du modèle de Lewis d'une molécule, étape par étape
Une autre animation concernant le cycle de l'eau :
cycle eau bis
Dans cette animation, on suit l'eau dans tous ses états et on apprend le nom des différents changements d'états mis en jeu dans ce cycle
QCM sur la combustion du carbone :
test combustion
5 questions sur la combustion du carbone : les réactifs, les produits et l'équilibrage de l'équation bilan. Merci à Frédéric Gobet pour ce travail
Diaporama sur le principe d'un dosage indirect (dit dosage en retour) :nouveau
dosage indirect retour
Ce petit diaporama tente d'expliquer le principe du dosage en retour ou dosage indirect, que l'on utilise en spécialité, notamment pour doer la vitamine C dans un comprimé.

ANIMATIONS, SIMULATIONS DE PHYSIQUE

Retour en haut de la page

FICHIERS COMMENTAIRES

ELECTRICITÉ

Schématisation d'un circuit électrique en série :
schema serie
Cette animation interactive permet d'apprendre les symboles de base des schémas d'électricité. Trois schémas seront réalisés : générateur, interrupteur, lampe ; générateur, interrupteur, moteur ; générateur, interrupteur, DEL, résistance de protection. Une animation d'Alain Retière.
Schématisation d'un circuit électrique en dérivation :
schema derivation
Celle-ci permet d'apprendre, par superposition de deux dessins d'expérience, comment on schématise un circuit électrique qui comportent plusieurs boucles. A partir d'un générateur et de deux lampes, on peut schématiser trois circuits différents. Une animation d'Alain Retière.
Simulation de circuit électrique :
simulation circuit
Création de circuits électriques et modélisation du comportement de ceux-ci : que quelques composants sont utilisables : pile, fils, résistance, lampe, interrupteur. Il est possible de modifier la tension de la pile et la résistance des récepteur. On peut aussi mesurer une intensité ou une tension.
Caractéristique d'une résistance :
Caractéristique d'une résistance
Un document de Laurent Rimbourg, ce diaporama présente l'utilisation de la courbe U = f(I) : lecture de I ou U, obtention de la valeur de la résistance d'après la courbe.
Tension alternative : présentation et caractéristiques :
tension alternative
Plusieurs petites animations se succèdent pour la découverte de ces notions. Il y a possibilité d'obtenir ou non des explications. L'animation commence par la présentation de ce qu'est une tension alternative, ensuite on parle de tension maximum pui enfin de période. Tout ceci illustré soit par un voltmètre soit par un écran d'oscilloscope. Une animation de Sylvain Berco.
Découverte de l'oscilloscope :
decouverte oscillo
Ce fichier .rar est un mini-site Internet qui permet de découvrir l'oscilloscope, la page index.htm propose une photo de la face avant de l'oscilloscope, on peut cliquer sur les différents boutons pour connaître leur fonction
Réglage de l'oscilloscope :
reglages oscillo
Cette animation présente un schéma d'une face d'oscilloscope et propose de montrer les différents réglages à réaliser avant de rentrer un signal sur l'oscillocope. Une animation de Phillipe Barayer.
Simulation d'oscilloscope :
oscillo
Cette simulation de Serge Lagier (dont voici le site www.sciences-edu.net) vous permet de manipuler un oscilloscope double voies avec toutes les fonctionnalités basiques. Vous pouvez brancher un générateur de tension continue, un GBF, ou bien différentes piles, ou encore la tension du secteur ou une dynamo. Idéales pour le programme de troisième.
De plus, quelques accessoires y sont intégrés : un multimètre (à brancher en parallèle à l'oscillo, un chronomètre avec une alarme intégré (on peut le faire bipper toutes les 5 ou 10 secondes : super pratique !)
Production d'une tension alternative grâce à un aimant et une bobine :
induction
Cette animation a été trouvée sur le site de l'académie de Dijon : elle montre comment, lorsque l'on fait tourner un aimant devant une bobine, on peut produire une tension alternative (visualisation à l'oscilloscope). Plus l'aimant tourne vite, plus la fréquence de la tension produite est grande.
Le groupe turboalternateur :
turboalternateur

Ensemble turbine-alternateur :
turbine-alternateur
Deux animations qui présentent les éléments principaux des centrales électriques : la turbine et l'alternateur. La première vient du site d'EDF, la deuxième du site du CEA.
Centrale thermique à flamme :
centrale-thermique

Centrale nucléaire :
centrale-nucleaire

Centrale éolienne :
centrale-eolienne 2

Centrale éolienne 2 :
centrale-eolienne

Centrale hydraulique :
centrale-hydraulique

Centrale à biomasse :
centrale-biomasse

Centrale géothermique :
centrale-geothermique

Centrale géothermique par roche fracturée
geothermie-roche

+
Toutes ces animations montrent le principe des différentes centrales électriques. La plupart viennent du site d'EDF, la dernière vient du site de l'ADEME.
Nature des porteurs de charge dans un circuit électrique avec électrolyte :
porteurs
Une petite animation qui montre la nature des porteurs de charge dans un circuit électrique : électrons dans fils électriques, ions dans solution. Merci à Lionel Herteaux, auteur de cette animation
Présentation du triphasé :
présentation du triphasé
Découverte du triphasé : source de ce courant, caractéristiques des différentes tensions possibles, relations mathématiques entre les tensions (analyse vectorielle) ... Cette animation vient du site http://fisik.free.fr, elle est plutôt destinée à des élèves et professeurs de physique appliquée car assez complexe, mais peut intéresser les curieux.
Simulation en ligne de circuit électrique :
circuitlab
Vous souhaitez tester votre circuit électrique en dehors de votre labo : utilisez circuitlab. Ce lien vous amène vers l'exemple de la résonance du circuit RLC : vous pouvez alors simuler ce qu'il se passe en temporel ou en fréquentiel, changez la valeur des composants ... Tout cela est bien pratique !

EDIT: cette application en ligne est malheureusement devenue payante, un temps d'utilisation de 20 minutes reste gratuit, mais cela risque de ne pas être suffisant.

Simulation en ligne de circuit électrique 2 :
docircuits
Voici une application jumelle de la précédente dont l'utilisation commerciale est gratuite (et le restera probablement puisque des comptes payants existent déjà).
Elle est aussi simple d'utilisation que circuitlab. Abusez-en !

OPTIQUE

Analyse spectrale de lumières d'étoiles :
analyse spectrale
Sylvain Debomy nous propose cette application très pertinente, notamment pour les élèves de seconde : à partir de spectres d'émission de gaz, et de leur comparaison avec des spectres d'absorption d'étoiles, on remonte à leur composition : cette application est très simple d'utilisation
Déviation de la lumière colorée par un prisme :
prisme
Avec cette animation, on peut repérer le trajet d'un rayon de lumière rouge, vert, bleu ou les trois en même temps. Il est possible de régler l'angle d'incidence du rayon, on peut lire les angles D de déviation à la sortie du prisme
Ensemble de petites animations :
ensemble de petites animations
Ce fichier exécutable propose plusieurs petites applications : synthèse trichromique ; composition d'une couleur par addition ; petit logiciel de dessin par soustraction ; décomposition d'une image en composantes rouge, verte, bleu ; quelques illusions d'optique ; découverte des phases de la lune ; découverte de l'écran de télévision
Simulation d'optique :
optikos
Encore une simulation de Serge Lagier destinée principalement aux professeurs (et élèves) de collège. Voici les différentes parties : réflexion et diffusion, propagation rectiligne, ombres propres et portées, phases de la Lune et éclipses, décomposition de la lumière (disque de Newton), lentilles convergentes et divergentes. Avec tout ça, il y a de quoi faire !
Diaporama sur la description d'un microscope réel :
microscope1
Ce diaporama a été réalisé par T.Boivin
Diaporama sur la modélisation d'un microscope :
microscope2
Ce diaporama a été réalisé par J.Mourlhou
Animation .swf sur le schéma optique du microscope : de nombreux paramètres sont réglables :
microscope3
Cette animation a été réalisée par François Passebon
Diaporama de construction point par point de l'image définitive obtenue avec un téléscope :
telescope
Merci à mes collègues de Montgeron
Un logiciel permettant de faire des schémas-simulations d'optique géométrique :
Optique géométrique
Ce logiciel a été créé par jean-Marie biansan. Après une prise en main assez délicate (à mon avis), je pense qu'on peut être efficace.

L'intérêt de ce logiciel est qu'il permet de faire des schémas d'optiques assez propres, et surtout que ces schémas sont dynamiques.

Quelques fichiers d'exemples présentent d'ailleurs diverses réalisations : télescopes, lentilles, michelson notamment. Vous pouvez visiter la page de l'auteur pour plus d'informations.

Un logiciel similaire au précédent pour l'optique géométrique mais en Anglais :
Optique géométrique raytrace
Ce logiciel est délicat à prendre en main, surtout qu'il est en anglais. Mais on doit pouvoir faire beaucoup de choses intéressantes lorsqu'on le maitrise.

Ce logiciel était distribué par une société Australienne qui ne le supporte plus à présent.
Vous trouverez des applications pédagogiques possibles de ce logiciel proposées par l'Inrp-Tecne à cette adresse (merci à Daniel.B pour ces informations).

Une notice très succincte peut être téléchargée ici.

Un simulateur d'appareil photo :
Appareil photo
Avec ce simulateur, vous pouvez observer les effets des différents réglages dont on dispose sur un appareil classique, en mode manuel : influence de l'ouverture, de la vitesse d'obturation, de la focale ...

MÉCANIQUE

Rotation des 4 premières planètes autour du soleil :
planete
Animation créée par Gilbert Gastebois : une fois téléchargé, dézipper le dossier et laissez tous les fichier dans le même dossier. Ensuite, il suffit de cliquer sur planete.htm pour atteindre l'application proprement dite.Celle-ci a un intérêt principalement dans le fait qu'elle montre, par rapport au référentiel géocentrique, les mouvements rétrogrades de Mercure, Vénus et Mars
Quelques exemples de situations où les forces se compensent ou non :
force
Pour divers solides dans diverses situations, on étudie les forces appliquées, et selon celles-ci, on en conclut la nature du mouvement
Simulation du pendule pesant :
pendulo
Une fois de plus, nous devons cette simulation à Serge Lagier. Vous allez pouvoir voir évoluer le pendule pesant, avec ses deux courbes caractéristiques : angle en fonction du temps, et le portrait de phase : vitesse en fonction de l'angle. Pratiquement tous les paramètres sont réglables : approximation des angles faibles, réglage de l'angle initial, de la vitesse initiale, du coefficient d'amortissement ou de la pulsation propre. Enfin la durée de relaxation (τ) et la période ou pseudo période sont indiquées
Tracé un vecteur vitesse sur une trajectoire :
tracer vecteur vitesse
L'auteur de cette animation est Adrien Willm, créateur du site ostralo.netoù vous trouverez plein de belles choses, merci à lui. Celle-ci décompose le tracé en différentes étapes très bien détaillées, les élèves ne pourront pas se tromper.
Tracé d'un vecteur variation de vitesse :
tracer vecteur variation vitesse
Cette animation a été créée par Lydie Germain, créatrice du site fizik.chimie.lycee.free.fr :
efficace !
Tracé d'un vecteur accélération :
tracer vecteur acceleration

OU
Tracé d'un vecteur accélération bis :
tracer vecteur acceleration
La première animation a également été créée par Lydie Germain : toujours efficace mais doit être vue après l'animation ci-dessus concernant le tracé du vecteur variation de vitesse. La seconde vient du site physiquark, elle est un petit peu plus longue puisqu'elle présente toutes les étapes à partir des vecteurs vitesses.

DIVERS

Instruments anciens :
instruments anciens
Ce fichier compressé, une fois dézippé, donnera naissance à un dossier qui contientdra une multitude de photos d'instruments anciens
Explication de l'expérience de Franklin :
expérience de franklin
Toute la démarche pour trouver la taille d'une molécule d'acide oléïque est expliquée dans cette animation, en commençant par l'existence de parties hydrophobe et hydrophile dans une molécule d'acide oléïque
Méthode de conversions en diaporama :
conversion

Fiche élève : utilisation du tableau de conversion
En suivant ces quelques diapositives, les élèves revoient les méthodes de conversions à partir du tableau du même nom. Ces fichiers sont ceux du nouveau programme de cinquième, on retrouve donc ces liens au niveau de la page Collège nouveaux programmes

D'AUTRES SITES D'ANIMATIONS

Voici quelques adresses pour d'autres animations :

Albert Einstein Looks for a Job

To Adolf Hurwitz

Milan, 30 September [1900]

Esteemed Herr Professor!

My friend Ehrat has written to me that Dr. Matter, who has been your assistant until now, has obtained a position as a Gymnasium teacher in Frauenfeld. I am therefore taking the liberty to inquire respectfully whether I have a chance of becoming your assistant.

I would not have taken the liberty of troubling you with such an inquiry during vacations were it not for the fact that the granting of citizenship in Zurich, for which I have applied, has been made conditional upon my proving that I have a permanent job.

Thanking you in advance for your kind response, I remain respectfully yours

Albert Einstein
Via Bigli 21
Milan
Milan, 26 September [1900]

Esteemed Herr Professor!

Thank you for your kind letter. It made me very happy to learn that I have a chance of getting the position. Since lack of time prevented my taking part in the mathematics seminar, and no opportunity was offered for seminar exercises in theoretical and experimental physics, there is nothing in my favor except the fact that I attended most of the lectures offered. I think I should therefore also mention that I occupied myself mainly with analytical mechanics and theoretical physics during my university years. I remain respectfully yours

Albert Einstein
Zurich, 9 March 1900 [1901]

Highly esteemed Herr Professor!

Last summer I completed my studies at the mathematical-physical department of the Zurich Polytechnikum, and since I would like to expand and in some ways complete the knowledge which I acquired by attending lectures, studying the classics, and working in the physical laboratory, but am totally lacking the necessary means, I am taking the liberty of asking you whether you might need an assitant A few days ago there appeared in Wiedemann’s Annalen a short paper of mine titled “Theoretische Folgerungen am den Kapillaritätserscheinungen” [“Theoretical conclusions drawn from the phenomena of capillarity"]. I would appreciate if you could drop me a few lines and let me know about my prospects of getting such a position now or possibly next autumn.

Respectfully yours

Albert Einstein
Dolderstr. 17
Zurich-Hottingen

-To Wilhelm Ostwald
Zurich, 19 March 1901

Esteemed Herr Professor!

Became your work on general chemistry inspired me to write the enclosed article, I am taking the liberty of sending you a copy of it. On this occasion permit me also to inquire whether you might have me for a mathematical physicist familiar with absolute measurements. If I permit myself to make such an inquiry, it is only became I am without means, and only a position of this kind would offer me the possibility of additional education.

Respectfully yours

Albert Einstein
Via Bigli 21
Milan
Italy

To Wilhelm Ostwald
Milan, 3 April 1901

Esteemed Herr Professor!

A few weeks ago I took the liberty of sending you from Zurich a short paper which I published in Wiedemann’s Annalen Became your judgment of it matters very much to me, and I am not sure whether I included my address in the letter, I am taking the liberty of sending you my address hereby.

Respectfully, yours truly

Albert Einstein
cand[idatus] phys[icae]
Milan
Via Bigli 21

To Heike Kamerlingh Onnes

Milan, 12 April 1901

Esteemed Herr Professor!

I have learned through a friend from college that you have a vacancy for an assistant, I am taking the liberty of applying for that position. I studied at the department for mathematics and physics of the Zurich Polytechnikum for 4 years, specializing in physics. I obtained there my diploma last summer. Of course, I will make my grade transcripts available to you with pleasure.

I have the honor to submit to you by the same mail a reprint of my article that has appeared recently in Annalen der Physik.

Respectfully,

Albert Einstein

Hermann Einstein to Wilhelm Ostwald

Esteemed Herr Professor!

Please forgive a father who is so bold as to turn to you, esteemed Herr Professor, in the interest of his son.

I shall start by telling you that my son Albert is 22 years old, that he studied at the Zurich Polytechnikum for 4 years, and that he passed his diploma examinations in mathematics and physics with flying colors last summer. Since then, he has been trying unsuccessfully to obtain a position as Assistant, which would enable him to continue his education in theoretical & experimental physics. All those in position to give a judgment in the matter, praise his talents; in any case, I can assure you that he is extraordinarily studiom and diligent and clings with great love to his science.

My son therefore feels profoundly unhappy with his present lack of position, and his idea that he has gone off the tracks with his career & is now out of touch gets more and more entrenched each day. In addition, he is oppressed by the thought that he is a burden on m, people of modest means.

Since it is you, highly honored Herr Professor, whom my son seems to admire and esteem more than any other scholar currently active in physics, it is you to whom I have taken the liberty of turning with the humble request to read his paper published in the Annalen fur Physik and to write him, if possible, a few words of encouragement, so that he might recover his joy in living and working.

If, in addition, you could secure him an Assistant’s position for now or the next autumn, my gratitude would know no bounds.

I beg you once again to forgive me for my impudence in writing to you, and I am also taking the liberty of mentioning that my son does not know anything about my unusual step.

I remain, highly esteemed Herr
Professor,
your devoted
Hermann Einstein

To the Director’s Office, Technikum Burgdorf

Winterthur, 3 July [1901]

To the Director’s Office!

I have learned that your institution has a vacancy for the chair of Strength of Materials and am taking the liberty of applying for that post.

I have been living in Switzerland for almost 6 years and have obtained Swiss (Zurich) citizenship during that time. In the Fall of 1896 I graduated from the Kantonsschule in Aarau and after that I enrolled in the School for Teachers of Mathematics at the Federal Polytechnikum. There, besides the usual mathematics and physics courses, I also took courses in technical subjecta, such as Strength of Materials with Prof. Hertzog, and Electrical Engineering with Prof. Weber. In the summer of the past year I obtained there my specialized teacher’s diploma.

Since then I have been working on investigations in the physics laboratory and on studies in theoretical physics. I also’ published a paper on capillarity in Wiedemann’s Annalen.

Since 15 May I have been teaching mathematics at the Technikum here in Winterthur as a substitute for Dr. Rebstein, who will be absent until 15 July because of military service.

Needless to say, my records are at your disposal. For further information please contact Prof. Lüdin, Prof. Weber, Prof. Rebstein at the Winterthur Technikum, Prof. Hertzog in Zurich, and the professors of the cantonal school in Aarau. With one of the latter, Prof. Winteler, formerly of Burgdorf, I am on very friendly terms.

Respectfully

Albert Einstein
Äussere Schaffhauserstrasse 38
Winterthur, Monday [8 July 1901]

Dear Herr Professor!

I was very happy to learn from my parenta’ last letter that you thought of me when you heard of a vacant teaching position in Burgdorf and that you are even ready to put in a recommending word for me there. I thank you with all my heart for your friendly offices.

Immediately after the receipt of this information (last Wednesday) I wrote to the director of the Burgdorf Technikum and applied for the position. The next day my colleagues told me that this teaching position involves not only mechanics and strength of materials, but also includes instruction in machine design, for which practical experience is essential. However, this does not say that the teaching of all these subjects by one teacher will also persist in the future. I have not yet received a response. I indicated that they may ask my former teachers at the Asrau cantonal school about me, and, further, that you and I are personal friends. I wrote this mainly because I thought that the gentlemen there are acquainted with you and will turn to you for information. I just don’t know whether it would have been pleasant for you to give an objective judgment about me—I would find an analogous situation somewhat awkward, one has to stick rigorously to the truth, and at the same time one does not like to say anything unfavorable. But in this way you can easily refrain from giving an opinion if this seems more appropriate to you.

I have been quite exceptionally pleased with my activities here. It had never occurred to me that I would enjoy teaching as much as it actually proved to be the case. After having taught 5 or 6 classes in the morning, I am still quite fresh and work in the afternoon either in the library on furthering my education or at home on interesting problems. I cannot tell you how happy I would feel in such a job. I have completely given up my ambition to get a position at a university, since I see that even as it is, I have enough strength and desire left for scientific endeavor.

There is no exaggeration in what you said about the German professors. I have got to know another sad specimen of this kind— one of the foremost physicists of Germany. To two pertinent objections which I raised against one of his theories and which demonstrate a direct defect in his conclusions, he responds by pointing out that another (infallible) colleague of his shares his opinion. I’ll soon make it hot for the man with a skillful publication. Authority gone to one’s head is the greatest enemy of truth.

But I do not want to bore you any longer with my talk.

Thanking you sincerely, I remain your

Albert Einstein
Schaffhauserstr. 38, Winterthur

To the Department of Education, Canton of Bern
Winterthur, 13 July 1901

To the Department of Education,

Intending to register for the vacant chair of mechanics and strength of materials at the Burgdorf Technikum, I mistakenly applied to the director of the Burgdorf Technikum. Please let me know whether my application will be taken into account or whether I have still time to send a new one to the Department of Education.

Respectfully

Albert Einstein
Scbaffhauserstr. 38
Winterthur

From the Department Of Internal Affairs, Canton of Bern

Reply—Your application for the vacant position of Teacher at the Technicum Burgdorf has been received by us and will be submitted together with all the other ones to the supervisory committee of the institute for evaluation.

1 one-franc bill returned.

Ritschard
From the Department of
Internal Affairs,
Canton of Bern

Esteemed Sir,

While thanking you very kindly for offering your services in filling the vacant position of Senior Teacher at the Mechanical-Technical Department of the Cantonal Technikum in Burgdorf, we must inform you that you have not been elected. Your documents are returned in the enclosure.

Respectfully,
Head of the Department of Internal
Affairs

Enclosures

Winterthur, Friday [6? September 1901] Dear Marcel With great joy have I just read in the newspaper that you have become professor at the cantonal school in Frauenfeld. I congratulate you cordially on this success, which offers you nice work and a secure future. I too applied for this position, but, in fact. I did it only so that I wouldn’t have to tell myself that I was too faint-hearted to apply; for I was strongly convinced that I have no prospects of getting this or another similar post. However, I too am now in the happy position of having gotten rid of the perpetual worry about my livelihood for at least one year. That is to say that as of 15 September I will be employed as a tutor by a teacher of mathematics, a certain Dr. J. Ntiesch, in Schaffhausen, where I’ll have to prepare a young Englishman for the Matura [high-school graduation] examinations. You can imagine how happy I am, even though such a position is not ideal for an independent nature. Still, I believe that it will leave me some time for my favorite studies so that at least I shall not become rusty.

Lately I have been engrossed in Boltzmann’s works on the kinetic theory of gases and these last few days I wrote a short paper myself that provides the keystone in the chain of proofs that he had started. However, it is too specialized to be of interest to you. In any case, I’ll probably publish it in the Annalen. On what stuff do you spend your free time these days? Have you too already looked at Schopenhauer’s Aphorisms on the Wisdom of Life? This is a part of Parerga & Paralipomena, and I liked it very much.

A considerably simpler method of investigating the relative motion of matter with respect to luminiferous ether that is based on ordinary interference experiments has just sprung to my mind. If only, for once, relentless Fate gave me the necessary time and peace! When we see each other I’ll report to you about it.

Give my best regards to your family and accept once more my heart-felt congratulations.

Your

Albert Einstein

To the Swiss Patent Office

Schaffhausen, 18 December 1901 To the “Federal Office for Intellectual Property” [Patent Office]:

I, the undersigned, take the liberty of applying for the position of Engineer Class II at the Federal Office for Intellectual Property, which was advertised in the Bundesblatt [Federal Gazette] of 11 December 1901. I obtained my professional education in physics and electrical engineering at the School for Specialist Teachers of Mathematics and Physics at the Federal Polytechnikum in Zurich, which institution I attended from the Fall of 1896 to the Summer of 1900. There I obtained the Federal Diploma for Specialist Teachers after completion of my studies, based on an experimental project in physics and the successfully passed examination.

From the Fall of 1900 to the Spring of 1901 I lived in Zurich as a private teacher. At the same time I perfected my education in physics and wrote my first scientific paper. From 15 May to 15 July I was a substitute teacher of mathematics at the Technikum in Winterthur. Since 15 September 1901 I have been a tutor in Schaffhausen. During the first two montha of my working here I wrote my doctoral dissertation on a topic in the kinetic theory of gases, which I submitted to Section II of the Faculty of Philosophy at Zurich University a month ago.

The documents that corroborate my statements are now at Zurich University, but I hope that I will be able to send them to you in a few days.

I am the son of German parents, but I have been living in Switzerland without interruption since age 16. I am a citizen of the City of Zurich.

Respectfully yours,
Albert Einstein
Bahnhofstr. Schauffhausen
[5 February 1902]

Private lessons in MATHEMATICS AND PHYSICS for students and pupils given most thoroughly by ALBERT EINSTEIN, holder of the fed polyt. teacher’s diploma GERECHTIGKEITSGASSE 32, 1ST FLOOR Trial lessons free.From the Swiss Department of Justice

Bern, 19 June 1902

Department of Justice and Police
of the Swiss Confederation
Fed. Office for Intellectual Property
Mr. Albert Einstein, Bern

Highly esteemed Sir!

At its session of 16 June 1902, the Federal Council elected you provisionally as a Technical Expert Class 3 of the Fed. Office for Intellectual Property with an annual salary of 3,500 ft.

Respectfully.

Federal Department of Justice & Police:
Brenner

From the Swiss Patent Office
[Bern, 19 June 1902]

Mr. J. Heinrich Schenk, Engineer

Zurich I, Mühlegasse 31, 3d [floor]
Mr. Albert Einstein

Bern, Thunstr. 43a

Highly esteemed Sir!

Herewith we transmit you a letter of appointment of the Fed. Department of Justice & Police, and expect that you will assume your duties on this-coming 1 July at the latest. However, you can also start earlier.

Respectfully,

O[fjice] f[or] I[ntellectual] P[roperty]

Source : http://www.the-scientist.com/?articles.view/articleNo/8871/title/Albert-Einstein-Looks-for--a-Job/

L'histoire du four Micro-Ondes

1946, États-Unis. L’ingénieur Percy Spencer, soudain pris d’une petite faim, glisse la main dans la poche de sa blouse et attrape une barre de chocolat… Malheureusement pour lui, cette dernière est complètement fondue...

Peut-être n’y aurait-il pas prêté plus d’attention, si ce n’était pas déjà la troisième fois ! Il s’interroge : la chaleur de son corps serait-elle responsable ou autre chose fait-il fondre le chocolat ?

L’ingénieur travaille alors sur les radars et tout particulièrement sur l’un de ses composants, un tube à vide produisant des ondes, appelé "magnétron".


C’est d’ailleurs cet appareil qu’il soupçonne d’avoir fait fondre son chocolat. Il se demande si les micro-ondes produites par celui-ci pourraient cuire des aliments…

Pour en avoir le cœur net, il réalise une expérience pour le moins originale : il bricole le magnétron et place ensuite à proximité... des grains de maïs. Et là, surprise, les grains chauffent tellement qu’ils donnent du pop-corn !


S’en suit un ballet d’essai culinaire : œuf, sandwich, tout y passe. Spencer prend même l’habitude de réchauffer son déjeuner dans son micro-ondes.

Convaincu du potentiel de son invention, il dépose un brevet et parvient à persuader sa société de la commercialiser sous le nom de "Radar Range". Le micro-ondes ressemble alors à un gros frigo et coûte très cher.


Il faudra attendre plusieurs années pour que les scientifiques comprennent son fonctionnement. Ce sont en fait les micro-ondes qui, en agitant les molécules d'eau contenues dans les aliments, parviennent à les chauffer.
Aujourd’hui presque tous les foyers occidentaux possèdent un radar antiaérien dans leur cuisine !

Pour en savoir plus :

Sur Percy Spencer

Sur la découverte du micro-onde

Sur comment fonctionne un micro-ondes

Source de l'article : Clément Jailin Sciencetips

Résonance, ponts et verres

 

Vous n'arrivez pas à voir les images ? Contactez-nous sur jean@artips.fr
Carte postale : Pont suspendu de la Basse-Chaine avant la Catastrophe du 16 avril 1850, Angers
Voir en grand

1850, Angers. Alors que la tempête se déchaîne, un régiment d’infanterie se dirige vers l’une des places de la ville. Pour y arriver, les hommes traversent le pont suspendu de Basse-Chaîne. Ces centaines de soldats marchent énergiquement, au pas cadencé. Une erreur qui leur est fatale…

Vous n'arrivez pas à voir les images ? Contactez-nous sur jean@artips.fr
Catastrophe du Pont suspendu, actuellement Pont de la Basse-Chaîne en l’année 1850, Angers
Voir en grand

En effet, une fois arrivé sur le pont, le régiment ne ralentit pas son allure et conserve la cadence. Soudain, alors que l’intégralité du régiment est sur le pont, celui-ci s’effondre ! Tous les hommes tombent à l’eau. Les témoins de l’époque rapportent un terrible carnage : plus de 200 soldats périssent noyés, percés par leurs baïonnettes ou écrasés sous les restes du pont…

Vous n'arrivez pas à voir les images ? Contactez-nous sur jean@artips.fr une vidéo : https://www.youtube.com/watch?v=Rmfl2kFeNPM
L’effondrement du pont de Tacoma, dû au phénomène de résonance, le 7 novembre 1940 https://goo.gl/QP0RMT

Mais que s’est-il passé ? Les ponts, comme toute structure, possèdent des fréquences propres qui s’expriment en hertz, c’est-à-dire en nombre de vibrations par seconde. Or, le pas des soldats génère également des vibrations (2 à 3 hertz). Lorsque les fréquences de ces vibrations, celle du pont et celle des pas des soldats, deviennent très proche, il se produit un phénomène physique dit de "résonance". Ce phénomène provoque une amplification de la vibration naturelle du pont, qui se met soudain à onduler.

N’ayant pas été conçu pour résister à un tel mouvement, le pont finit par céder.

Vous n'arrivez pas à voir les images ? Contactez-nous sur jean@artips.fr
Démonstration du phénomène de
résonance provoquant l'explosion d'un verre en cristal

De la même façon lorsque la Castafiore parvient à chanter, proche de la fréquence propre d’un verre de cristal, il explose !

Après la catastrophe, l’émoi est tel qu’une commission d’enquête est lancée. On accuse les câbles, un peu vétustes, et la tempête. Surtout, on comprend les dangers possibles du phénomène de résonance pour les ponts.

Ce genre de désastres brutaux a donc eu une conséquence surprenante. Dans les règlements militaires, il est désormais rigoureusement interdit de marcher au pas sur un pont !

Sur le phénomène de résonance (vidéo)

 

Epistémologie de la Physique

Epistémologie de la Physique


Définition

L'épistémologie de la physique étudie avec précision les différentes écoles qui se sont succédé du point de vue de la conception des phénomènes naturels mais aussi du point de vue de la méthode et de la logique propres à cette science.

On distingue traditionnellement 6 grands types d'écoles d'épistémologie de la physique :

1 - Matérialisme et mécanisme
Les philosophes atomistes matérialistes et mécanistes qui considèrent que la nature , la " physis " en grec est composée d'une multiplicité d'éléments (les atomes) et que les rapports entre les corps ne peuvent s'expliquer qu'en terme de chocs et non en terme de formes substantielles (opposition à la physique d'Aristote et à celle des scolastiques).

2-L'hylémorphisme
Les philosophes hylémorphistes qui pensent comme Aristote que la nature est un mélange, un composé de matière et de forme. Pour eux le rouge d'une pierre est le produit de l'actualisation de la forme rouge dans la matière de la pierre (et non pas le produit de l'interaction entre la structure matérielle de la lumière et celle de la pierre). Les philosophes scolastiques (ex Saint Thomas) sont les grands défenseurs de cette théorie.

3-Le positivisme
Les philosophes positivistes rejettent dos à dos matérialistes, hylémorphistes et mécanistes. Pour eux toutes ces positions sont métaphysiques, elles ne signifient rien de concret ni de réel. La question de savoir ce qu'est la structure de la nature ne leur semble donc pas valide. La nature n'est compréhensible et descriptible que comme ensemble de lois. Les philosophes positivistes considèrent de plus que la science est le modèle même de toute connaissance et qu'elle constitue la forme la plus achevée du développement de l'esprit humain. Après l'âge théologique et l'âge métaphysique, c'est l'âge scientifique qui correspond au faîte de la pensée qui doit advenir et permettre aux hommes d'organiser différemment leurs rapports à l'intérieur de la société.

4-L'empirisme inductif
Les philosophes inductivistes qui sont traditionnellement empiristes et admettent que le contenu du savoir incorporé dans les théories de physique est issu de l'expérience. Pour eux le raisonnement propre à la réflexion scientifique est l'induction (à partir de l'observation de faits particuliers on infère une proposition générale ou loi).

5-L'idéalisme déductif
Les philosophes déductivistes qui sont traditionnellement idéalistes et considèrent que le fondement véritable de toute théorie de physique réside non pas dans l'expérience (domaine de l'extériorité) mais dans l'esprit humain (domaine de l'intériorité) et dans les catégories qui se trouvent originellement en lui. Au fondement de toute loi se trouve donc pour eux une idée innée (innéisme) ou bien une catégorie de l'entendement humain (idéalisme transcendantal).

6-L'empirisme logique et les autres
A partir du XXème siècle l'interrogation sur les sciences physiques s'est déplacée et on a vu s'opposer d'un côté les épistémologues traditionnels de la connaissance (inductivistes logiques) et de l'autre des épistémologues originaux proposant de nouvelles théories de la science (ex : le falsificationnisme de Karl Popper et les théories anarchistes de la connaissance de Paul Feyerabend).

Les grandes formes d'épistémologie de la Physique

L'hylémorphisme

Développée par Aristote l'hylémorphisme est l'une des théories de physique qui aura eu la longévité la plus grande. C'est elle en effet qui à partir du treizième ème jusqu'au dix-septième siècle sera reconnue comme étant la physique officielle. Elle était enseignée dans les universités et les écoles (en latin " scola " signifie l'école, d'où son nom de physique scolastique) et était totalement incorporée au dogme chrétien. C'est pourquoi aussi Galilée et Descartes ont subi tant de pressions sur le plan politique et ont eu maille à partir avec l'Eglise. En effet s'attaquer à la physique hylémorphiste c'était de manière indirecte s'en prendre à l'un des fondements de l'édifice religieux et par conséquent remettre en cause l'ordre politique lui-même.

L'hylémorphime qui affirme que la nature est un composé de matière et de forme aura été également l'une des théories les plus critiquées aussi bien dans sa version grecque (puisque c'est à cette théorie qu'Epicure s'oppose) que dans sa version chrétienne (à laquelle se seront opposés Descartes, Galilée, Hobbes..). Loin d'être cependant ridicule et incohérente, cette physique mérite que l'on s'y intéresse, elle permet de mieux saisir en effet l'apport de la physique cartésienne. De plus si l'on s'intéresse à Aristote la connaissance de cette physique permet de faire le lien avec sa métaphysique et de bien comprendre en quoi elle constitue un effort admirable par rapport à la conception platonicienne de la nature. Nous ne pouvons donc que conseiller de lire les pages concernant l'hylémorphisme et Aristote dans la suite du texte.

Le matérialisme

Développée par Démocrite d'Abdère et Epicure de Samos, la philosophie matérialiste est une conception entièrement concrète et corporelle de tous les phénomènes de la nature. Elle se présente à la fois comme une philosophie de la physique (il est intéressant de ce point de vue de voir combien les vues d'Epicure ont pu être confirmées par la science du xx ème siècle) mais aussi comme un instrument de lutte contre la superstition religieuse. En privilégiant l'idée qu'il est possible d'expliquer tous les phénomènes naturels à partir de nos sens et à partir des mouvements entre les atomes (particules infiniment petites, insécables et éternelles), Epicure a appris aux hommes à ne plus craindre les dieux et les phénomènes naturels (orage, tempête, séisme) ainsi que les mauvais présages dont ils semblaient être le signe.

Le mécanisme

C'est à Descartes et à la physique des chocs dont il a développé les bases dans ses Principes de philosophie que l'on doit le modèle de construction d'une physique entèrement mécaniste qui se propose de ramener l'explication de tous les phénomènes à de simples mouvements entre les corps et aux types de rapports de causalité sur lesquels ils reposent. Pour Descartes dans le domaine de l'étendue tous les événements sont explicables en terme de " chocs " , de mouvements entre les corps et il n'y a rien d'autre que cela qui puisse en rendre raison.

S'il s'oppose de ce point de vue aux penseurs hylémorphistes et aux physiciens scolastiques qui voyaient des formes présentes partout dans la nature, Descartes ne s'oppose pas moins aux auteurs matérialistes. Pour lui en effet les atomes d'Epicure n'existent pas car la nature à horreur du vide, elle est absolument pleine.

A l'explication atomiste qui suppose l'existence de particules infiniment petites séparées par des espaces vides, Descartes substitue donc un mode d'explication mécaniste et tourbillonnaire (pour lui la nature est composée de particules qui tourbillonnent dans un fluide, une sorte d'éther et les corps ne bougent que s'ils subissent des chocs).

Le mécanisme matérialiste

Deux auteurs représentent bien la synthèse entre matérialisme et mécanisme, ce sont d'une part Hobbes philosophe anglais du XVIIème siècle et La Mettrie philosophe français du dix-huitième. Le premier est plus connu pour les conceptions politiques qu'il a développées en tant que théoricien du monarchisme, le second pour ses théories liées au plaisir et à sa recherche nécessaire. Néanmoins on trouvera chez Hobbes, notamment dans son ouvrage sur Les Eléments de la loi naturelle et politique des analyses qui permettent de faire la synthèse entre une conception cartésienne de la physique et une vision entièrement matérielle de la nature (hostilité à la notion d'âme, hostilité à la physique scolastique, explication des phénomènes lumineux en terme matériels…). L'ouvrage de La Mettrie , L'Homme machine, constitue quant à lui le modèle d'une conception entièrement matérialiste et mécaniste de l'homme et de la nature. L'idée de Dieu s'y trouve considérablement critiquée. Ici et contrairement à Hobbes qui entend conserver l'idée de Dieu pour des raisons de sécurité et d'ordre en matière politique, le matérialisme se fait athée. Il est intéressant de plus de voir comment La Mettrie dans ses autres ouvrages relie sa conception matérialiste et mécaniste à une éthique du plaisir qui n'est pas sans rappeler celle d'Epicure.

L'inductivisme et l'empirisme

C'est à partir du dix-septième siècle en angleterre, que la philosophie empirico-inductive prend son véritable essor. Les grands noms de cette philosophie sont Francis Bacon(1561-1626), père de la méthodologie expérimentale, John Locke (1632-1704) qui est aussi sensualiste, Hume(1711-1776) qui développe un empirisme sceptique et critique la notion d'induction, Mill qui définit les quatre grandes formes du raisonnement inductif dans les sciences et William Whewell qui propose une théorie originale de l'induction, (sorte de synthèse entre l'idéalisme et l'empirisme). Bien que ces auteurs différent entre eux et que chacun apporte sa pierre à l'édifice de pensée empirico-inductif, on ne peut pas ne pas voir qu'ils se situent sur un même continent de pensée. L'adhésion de Newton (1642-1727) aux grandes thèses inductivistes a donné un poids considérable à cette philosophie et constitue le modèle même de l'épistémologie de la physique classique. Néanmoins l'apparition de nouvelles théories de physique au début du XXème siècle (Einstein et la relativité, Heisenberg et la théorie des quanta) va considérablement diminuer son potentiel explicatif.

L'idéalisme déductif

L'idéalisme déductif peut être de deux types : il est soit innéiste soit transcendantal. Dans le premier cas on aboutit à la philosophie de Leibniz et à l'idée selon laquelle l'ensemble des lois de la nature que nous découvrons, ne sont pas le pur produit de l'observation ni de la sensation mais d'une opération intellectuelle de ressouvenir (au cours de laquelle nous ne faisons que développer ou " déplier " des idées qui se trouvent de toute éternité en nous). Cette conception pose le problème de savoir qui a placé en nous toutes ces lois de physique et ces vérités mathématiques : Leibniz répond à cet égard et sans hésitation que c'est Dieu qui l'a voulu ainsi en fonction du principe du meilleur qui veut que nous vivions dans " le meilleur des mondes possibles ". Dans le deuxième cas c'est à la philosophie de Kant à laquelle on parvient et au fameux système de l'idéalisme transcendantal. Opposé aussi bien à l'idée de Hume selon laquelle tout notre savoir provient de l'expérience (entendez par là de l'influence des objets extérieurs sur nos sens) qu'à celle de Leibniz selon laquelle le contenu de notre savoir est de toute éternité contenu en nous, Kant a émis l'idée que seule la forme des catégories de notre savoir est présente dans notre entendement en dehors de l'expérience mais que le contenu de ces catégories ne peut être rempli que par l'expérience. Il évite ainsi à la fois le dogmatisme leibnizien qui tendait à rendre inné le contenu de notre savoir théorique mais aussi le scepticisme humien qui rendait le savoir incertain et détruisait l'idée de nécessité. Pour Kant la nécessité de notre savoir réside dans la forme de notre entendement et dans les catégories qui le composent en tant qu'elles sont a priori (catégorie de la substance, de la causalité, de l'action réciproque..). Cette nécessité formelle rétroagit sur le contenu objectif du savoir qui se trouve dès lors fondé en certitude. Ainsi la troisième loi de newton sur l'action réciproque est originellement fondée sur la catégorie pure a priori de la " communauté " mais son contenu propre est conçu par Kant comme provenant bien entendu de l'expérience, c'est à dire de l'observation des phénomènes naturels. Empirisme et innéisme se trouvent dès lors à la fois englobés et dépassés par l'idéalisme transcendantal.

Le positivisme

La philosophie positive des sciences se présente avant tout comme une tentative de dépassement des philosophies précédentes de la physique. Elle prétend rejeter aussi bien le matérialisme que l'hylémorphisme, l'empirisme et l'idéalisme dans l'abîme de la métaphysique et de ses idées creuses. Fondée sur le développement des sciences physiques au dix-neuvième siècle, elle trouve son plus grand représentant dans la figure du philosophe français Auguste Comte. A la question pourquoi " x " ou " y " ?, le philosophe positiviste substitue la question comment " x " ou " y " ? et y répond à l'aide de lois mathématico-physiques(ce que faisait déjà Newton). Pour lui le problème de la structure de la matière ou de la nature n'a plus de sens, seul compte le fait que tous les phénomènes puissent être exprimés à l'aide de lois et que ces lois soient cohéremment organisées dans le tout d'une théorie ou d'un système physique.

L'empirisme logique

C'est autour des membres du cercle de Vienne que s'est développée au début du xx ème siècle une nouvelle conception de l'épistémologie de la physique : l'empirisme logique. Elle prend ses bases à la fois dans l'apparition de la nouvelle logique des prédicats élaborée par Frege et Russell ainsi que dans le développement de la nouvelle physique ( en l'occurrence celle de la relativité). Rudolf Carnap est le plus grand représentant de cette école ainsi que son meilleur défendeur. Très hostile à la métaphysique, il montre dans un ouvrage intitulé La Métaphysique devant l'analyse logique du langage, que les concepts de cette " fausse science " sont absolument dénués de référent, qu'ils ne désignent rien et que par conséquent ils n'ont pas de sens. Les idées d'âme ou de Dieu se trouvent ainsi ravalées au rang de simples " babu " (concept type qui symbolise tous les mots qui ont une définition qui ne renvoie à rien d'observable). Cette franche critique de la métaphysique, comparable à celle du positivisme comtien, explique que l'on ait parfois pu donner à l'empirisme logique le nom de " positivisme logique ". Persuadé de la validité du principe d'induction qui veut que l'on puisse inférer une proposition générale à partir de faits et de propositions particulières. Il élabore dans son maître ouvrage La Construction logique du monde, une théorie originale de la connaissance. Il part de l'idée que le système du savoir repose sur un petit nombre de faits d'expériences qui sont comme des faits " atomiques " et que c'est à partir de ces faits et de généralisations successives que s'élaborent nos conceptions les plus universelles parmi lesquelles on trouve les lois et les théories de physique. Très en vogue au début du XX eme siècle cette théorie a fait l'objet de critiques acerbes ce qui ne doit pas vous empêcher de lire le grand ouvrage de philosophie de la physique écrit par Carnap, Les Fondements philosophiques de la physique qui est encore aujourd'hui une référence incontournable en matière de philosophie des sciences.

De nouvelles épistémologies

Le faillibilisme, le paradigmatisme, l'épistémologie dialectique et les théories anarchistes de la connaissance constituent sans doute les formes les plus modernes de l'épistémologie de la physique. Elles se situent toutes dans une perspective d'opposition aux épistémologies précédentes.

Karl Popper et le faillibilisme

Le faillibilisme de Karl Popper s'oppose notamment à l'idée que la confirmation ou la vérification empirique puissent être des critères valides de détermination de la scientificité d'une loi ou d'une théorie. Pour Popper une théorie n'est jamais absolument confirmée ni vérifiée (contrairement à ce qu'affirme Carnap), elle se contente de résister à toute une série de tentatives de réfutations ou de falsifications. Tant qu'elle leur résiste la théorie est conservée mais dès lors qu'elle ne résiste plus à ces tests de falsification, elle est abandonnée au profit d'une autre théorie ( c'est ainsi que la physique de Newton est remplacée par celle d'Einstein) qui sera elle même soumise à des tests de réfutation etc.. La scientificité d'une théorie réside donc dans sa capacité à pouvoir être réfutée ou soumise à des tests de réfutation. Si tel n'est pas le cas ce n'est pas une théorie scientifique au sens fort du terme. C'est pourquoi du reste Popper considérait comme non réfutables les théories psychologiques et psychanalytiques de Freud et de Adler dans la mesure où selon lui ces théories pouvaient toujours prétendre ne pas avoir été réfutées. Cette dernière assertion de Popper est du reste très discutable puisque l'on voit bien que les psychologues n'hésitent pas à se réfuter et que, de ce processus de réfutation, ressort souvent un progrès dans la théorie elle même.

Kuhn et la philosophie des paradigmes

La philosophie des paradigmes développée par Khun dans son ouvrage intitulé La structure des révolutions scientifiques, constitue une tentative originale d'explication du passage d'une théorie de physique à une autre. Pour Khun le cœur d'une théorie de physique réside avant tout dans quelques idées essentielles qui constituent son cœur rationnel et qui tant qu'elles ne sont pas remises en question font le succès d'une théorie (ex : l'idée d 'attraction universelle, d'action réciproque, d'inertie, d'espaces absolus et relatifs, de temps absolus et relatifs dans la physique de Newton). Dès lors que le paradigme, c'est à dire l'ensemble de ces quelques idées se trouve radicalement remis en question, on opte alors pour une autre théorie qui possède un paradigme différent (ex : les idées d'une vitesse de la lumière invariante et indépassable, d'espaces et de temps exclusivement relatifs dans la physique de la relativité). Cette conception à l'intérêt de mettre le doigt sur ce qui est essentiel dans une théorie de physique et de rendre mieux compte que les philosophies inductives ou déductives des différentes ruptures qui ont été opérées dans les sciences de la nature au début du xx ème siècle.

Bachelard et l'épistémologie dialectique

L'épistémologie dialectique de la physique trouve son plus grand représentant en la personne de Gaston Bachelard. Pour ce grand philosophe des sciences la logique qui sous tend le développement des sciences n'est rien d'autre que la logique dialectique, c'est à dire une logique de la contradiction et de la négation. Les théories progressent en se niant, en se contredisant les unes à la suite des autres. Ce processus de négation perpétuel constitue le moteur du savoir et de la connaissance. C'est en surmontant des obstacles épistémologiques que la science progresse et c'est en adoptant une attitude de négation qu'elle ouvre les portes vers un nouveau savoir (ex : la philosophie des quanta qui vient contredire les principes de la logique classique et ouvre la voie à une nouvelle forme de philosophie , plus ouverte et moinds dogmatique, la philosophie du non).

La théorie anarchiste de la connaissance

Dernière grande forme d'épistémologie de la physique, la théorie anarchiste développée par Paul Feyerabend, se veut résolument hostile à l'idée de méthode. Faisant preuve de beaucoup de rigueur dans sa démonstration, Feyerabend met en évidence le fait que bon nombre d'avancées dans les sciences ont été opérées à partir d'hypothèses " ad hoc " c'est à dire d'hypothèses arbitraires, non fondées rationnellement ni même méthodologiquement et contredites par les observations les plus sures réalisées à l'époque. Ce ne serait donc pas l'application de la méthode scientifique telle qu'elle a pu être codifiée par Mill, Claude Bernard ou Popper qui serait à l'origine des grandes avancées scientifiques, mais le hasard, le chaos " relatif " et la capacité des hommes de science à sortir de la route toute tracée par la méthode. Feyerabend peut conclure son ouvrage par une proposition qui est plus qu'un slogan et annonce tout un programme et une conception des choses. En matière de progrès scientifique, il n'y a aucune idée, aussi saugrenue soit-elle qui puisse-t-être écartée :"tout est bon ".

 

Source : http://s.bourdreux.free.fr/education/epistemologie/epistemo_physique.html

"D’après une étude" : cet imparable argument d’autorité...

« D’après une étude » : cet imparable argument d’autorité...

« Les couches-culottes sont toxiques pour les bébés, d’après une étude »… « D’après une étude, les gens qui se parlent à eux-mêmes seraient des génies »… « D’après une étude, le spoiler est bon pour vous »… Il ne se passe pas un jour sans que les médias (que je consulte) utilisent cette formule. Certains des articles sont très bien écrits et, rapportant ce qui a été fait dans l’étude, permettent réellement au lecteur de se faire une opinion argumentée. D’autres se contentent d’un gros titre et de quelques considérations générales, attrayantes, mais pas étayées. C’est là que le bât blesse.

Publis. European Southern Observatory/FlickrCC BY

En creusant un peu, on se rend vite compte que, pour chaque étude montrant un résultat « blanc », il y en a au moins une autre qui montre un résultat « noir ». Alors, pourquoi se fier plus à l’une qu’à l’autre ? Parce qu’elle a été relayée davantage par les (multi-)médias ? Parce qu’elle est attribuée à « une université prestigieuse » ou à un « grand professeur » ? Ou encore parce qu’elle a été qualifiée de « très sérieuse » ? Parce qu’elle a été mieux faite ? Ce dernier argument est peut-être celui qui tombe le mieux sous le sens. À condition de savoir décortiquer ces fameuses études. Voici un mode d’emploi et quelques recommandations d’usage.

Les dessous d’« une étude… »

Il existe plusieurs formats pour la publication des articles scientifiques, mais tous ont en commun une structure, concrète, efficace, souvent éloignée de la belle histoire que l’on peut en tirer a posteriori. « Une étude », c’est un titre, des auteurs, un résumé, une introduction, des méthodes, des résultats, une discussion, des remerciements, des références.

Description scientifique en 1904 d’une nouvelle espèce d’araignée, Pacificana cockayniH.R. Hogg/The Annals and Magazine of Natural History

D’abord un titre. C’est la première chose qu’on lit. Certains sont accrocheurs, mais ils peuvent manquer de nuances, et laisser entendre beaucoup plus qu’ils n’ont vraiment à dire. De plus, les retranscriptions ne sont pas toujours fidèles. Un matin (le 6 février 2017), j’ai tapé « d’après une étude » dans mon moteur de recherche, et sur la première page, j’ai cliqué sur le lien « D’après une étude, les femmes codent mieux que les hommes » qui m’a renvoyé vers le site du journal Le Parisien. De là, j’ai accédé à l’article original intitulé « Gender biais in open source : pull request acceptance of women versus men ». Il est bien question d’hommes et de femmes, mais ce que dit le titre de l’article initial, ce n’est pas que les femmes codent mieux que les hommes, juste qu’il y a une différence entre les deux sexes que les chercheurs souhaitent comparer. Aussi bien écrit que soit l’article en ligne du Parisien, on notera simplement que l’étiquette ne correspond pas complètement au produit.

Puis, des auteurs. Des humains donc. Des humains qui signent leur article et qui en assument donc la responsabilité intellectuelle. Les auteurs assurent, s’il y a lieu, le service après-vente de leur article. Une critique constructive ? Des compléments à apporter ? Des interrogations légitimes ? Les auteurs peuvent – et doivent – y répondre. Leur nom est toujours accompagné par leur affiliation, c’est-à-dire l’université ou l’institut de recherche qui les emploie.

Un article de Cell, revue réputée en biologie. Cell

Le nombre des auteurs signataires d’un article est très variable d’une étude à l’autre. Il existe un ensemble de règles définissant quelles sont les contributions de chacun qui justifient de signer. Elles sont plus ou moins suivies à la lettre, mais en général, sont considérées comme auteurs toutes les personnes qui ont élaboré l’étude, analysé et interprété les données, rédigé, apporté des critiques constructives ayant permis de renforcer la qualité de l’article. Les personnes qui ont acquis les données sont, selon les cas, considérées comme auteurs ou remerciés à la fin de l’article.

Plusieurs anonymes participent également à améliorer la valeur de l’article avant sa publication. Ce sont les reviewers, c’est-à-dire les deux ou trois spécialistes que l’éditeur contacte pour émettre un avis critique et constructif sur l’article que lui ont soumis les auteurs. Les échanges entre les auteurs, l’éditeur et les reviewers permettent de lever les ambiguïtés quant aux méthodes et aux interprétations et constituent une manière de valider la solidité des résultats et de leurs interprétations. Une sorte de contrôle qualité.

Le résumé n’est qu’un résumé

Le résumé (ou abstract) est aussi synthétique que possible. S’il est bien écrit, il informe sur ce qui a motivé l’étude, sur les grandes lignes de la méthodologie employée, il donne les principaux résultats et les principales conclusions que les auteurs en tirent, à la lumière de la question posée. Toutefois, le résumé n’est qu’un résumé. Souvent moins de 300 mots. C’est très court pour rendre compte de plusieurs mois, voire années, de travail. C’est surtout trop court pour apporter toutes les nuances nécessaires pour comprendre les résultats sans les sur-interpréter. Malgré les efforts déployés, le nombre d’articles en accès libre pour le lecteur reste encore très limité de sorte que le citoyen curieux n’a souvent accès qu’au résumé de l’article. Toutefois, on espère (qu’en est-il, vraiment ?) que ceux qui le retranscrivent pour grand public ont eu accès à sa version intégrale.

L’introduction… introduit l’article. Elle énonce le contexte de l’étude, pose les concepts et détaille les hypothèses de travail. C’est souvent la partie la plus accessible et la plus didactique de l’article. Tout simplement parce que ses auteurs veulent être bien compris par leurs lecteurs ! J’ai l’habitude de dire aux étudiants que j’encadre que si l’introduction est bien écrite, alors à la fin, le lecteur doit être en mesure de formuler lui même les hypothèses testées par les auteurs.

Ce qui fait la différence fondamentale entre un article scientifique et toute autre forme d’écrit scientifique à destination du grand public, c’est la partie matériels et méthodes. Si je lis sur mon paquet de dentifrice que 90 % des personnes interrogées sont satisfaites par le produit, alors je me demande 90 % de combien ? Est-ce que 9 personnes sur 10 interrogées ont été satisfaites, ou bien 900 sur 1000 ? Et puis satisfaites de quoi ? Sur quels critères a été évaluée la satisfaction ? Comment les utilisateurs ont-ils été interrogés (questionnaire numérique, papier, interview, téléphone…) ? Et comment ont il été choisis ? Au hasard ? Dans plusieurs régions ? Les a-t-on rémunérés ? Ont-ils reçu des offres promotionnelles en remerciement ? C’est à ce genre de questions, légitimes, que doit répondre la partie matériels et méthodes.

À elle seule, cette partie peut occuper plus du tiers de la longueur de l’article ! Voyez là comme la retranscription détaillée du protocole que les auteurs ont utilisé. Une sorte de recette de cuisine. Si cette partie est aussi détaillée, c’est pour permettre la reproductibilité de l’étude. De l’étude. Pas nécessairement du résultat.

Partant de là, on comprend bien que les résultats d’une étude ne valent rien en tant que tels s’ils ne sont pas présentés dans un contexte général et si l’on n’a qu’une idée floue de la manière dont ils ont été obtenus (comprenez : les 90 % de satisfaction de mon tube de dentifrice ne valent pas grand-chose). D’autant que la partie résultats des articles scientifique est d’une lecture que je qualifierai « d’aride ». Des chiffres. Des pourcentages. Des moyennes. Des intervalles de confiance. Des tableaux et des figures. Des faits, rien que des faits. Pas d’interprétation. Pas encore.

Première revue scientifique en France, 1665. Journal des scavans

Les interprétations ne viennent que dans la partie qualifiée de « discussion ». C’est là que les auteurs interprètent leurs résultats à la lumière des hypothèses qu’ils ont formulées. Quand je rédige la discussion de mes articles, je dois donner à mon lecteur tous les éléments qui lui permettent de replacer mes résultats dans un cadre plus large que celui de mon étude. Je lui montre en quoi l’article qu’il est en train de lire constitue une avancée dans la compréhension d’un problème. Aussi objectif que j’essaie d’être, et avec tous les garde-fous imaginables, il est permis qu’un lecteur, sur la base des résultats, ait des interprétations si ce n’est différentes, au moins nuancées. Et c’est tant mieux !

La discussion peut aller au-delà des seuls faits et proposer des interprétations et des implications plus générales, pour peu que je les argumente en confrontant mes résultats à ceux présentés dans d’autres articles. Cela implique de mentionner tout aussi bien les études qui vont dans le même sens que mes résultats que les études montrant l’exact opposé : « J’ai montré que X. Ce résultat est conforme à la théorie Y selon laquelle… et qui est confirmée par les travaux de Doe et coll. 1999, Durand et coll. 2003, Martin et coll. 2015. Cependant, mon résultat est contraire à l’idée proposée par Dupont et Dupond 2007 selon laquelle… ». Et de comparer les approches expérimentales des uns et des autres pour expliquer les points de convergence et de désaccord.

La discussion contextualise donc les résultats présentés. Implicitement, tous les auteurs de toutes les études – je crois – admettent la règle selon laquelle des résultats ne sont valables que dans le cadre théorique et méthodologique dans lequel ils ont été établis. Si des extrapolations sont possibles, elles doivent être faites avec beaucoup de prudence.

Entendons-nous bien : la spéculation est saine si elle est étayée. Elle stimule le débat. Toutefois, les perspectives et implications des études que présentent les auteurs à la fin de leurs articles (en général) ne doivent en aucun cas être confondues avec les conclusions qui, elles, se fondent sur des résultats.

Cela peut paraître anecdotique, mais il est toujours intéressant de jeter un œil aux quelques lignes de remerciements qui précèdent la liste des références. C’est notamment là que sont mentionnés les sources de financement qui ont permis de réaliser l’étude. La question n’est pas de chercher systématiquement à remettre en question le contenu d’une étude sur la seule base de sa source de financement, mais si conflit d’intérêt il y à, il devrait être indiqué dans ce paragraphe.

Exemple de déclaration d’intérêt. JAMA

De ce qui précède, on aura pu lire entre les lignes qu’en fin de compte, ce qui est nouveau dans « une étude », ce sont les résultats. Le reste de l’article emprunte à d’autres publications pour présenter le contexte, décrire des outils et des méthodes, étayer des arguments. Pour rendre à César ce qu’il lui appartient, et permettre à chacun de suivre ou de vérifier les arguments des auteurs, à chaque affirmation est associée une ou plusieurs références dont la liste est systématiquement fournie, dans le détail, à la fin de chaque article.

« Une étude », non, des études oui

La science n’est pas un catalogue de résultats publiés dans lequel chacun peut aller piocher les arguments qui abondent dans son sens ou contredisent les arguments du voisin : ce que les Anglo-saxons appellent joliment le cherry-picking. C’est un processus dynamique qui répond à un certain nombre de critères de qualité dont les plus importants sont la transparence et la reproductibilité.

La science, c’est avant tout une démarche, et une démarche exigeante. Toutes les études sont dignes d’intérêt, à condition d’être transparentes et que leur message s’appuie sur une méthodologie claire et des résultats interprétés dans la limite des conditions fixées par l’étude. Face à un contradicteur, clamer « si, c’est vrai, je l’ai lu dans une étude » n’est pas satisfaisant, parce que votre contradicteur pourra brandir une autre étude tout aussi valable. Il est normal que des études se contredisent. Si vous voulez jouer, prononcez les mots « OGM » et « bio » pendant un repas de famille, vous verrez ! C’est en confrontant des résultats opposés que l’on avance et que, petit à petit on arrive à mieux délimiter les contours d’une hypothèse, de ce qui est bien établi de ce qui fait débat.

Evitons les raccourcis

Sortir « une étude » de son contexte et la réduire à ses résultats en occultant la méthode qui a permis de l’obtenir relève au mieux de la négligence, au pire de la désinformation. Extrapoler les résultats de « une étude » en dehors du contexte dans lequel ils ont été établis relève de l’ignorance ou de la prise de position et ne devrait se faire qu’au conditionnel. Pas à l’indicatif. Et toujours en rappelant les éléments de méthodes supportant les résultats.

Qu’il n’y ait pas de méprise. Il est évident que le citoyen n’a pas à se plonger dans la lecture des études en elles-mêmes (pour peu qu’il y ait accès) et qu’il doit pouvoir faire confiance aux journalistes. Mais il est tout aussi important qu’il garde un esprit critique sur ce qu’il lit et qu’il n’oublie jamais deux choses primordiales :

  • La science est écrite par des humains, avec tous les défauts et leurs qualités.
  • Les « études » relayées par les médias et les réseaux sociaux ont fait l’objet de plusieurs digestions et régurgitations par d’autres humains. Plus il y a d’intermédiaires entre les auteurs de « une étude » et les lecteurs, moins la bouillie finale garde les saveurs du produit d’origine.

Ah, oui, et cet article aussi est rédigé par un humain, aussi (im)partial qu’un autre. Faites-en ce que vous voulez.

Source : March 12, 2017  Bastien Castagneyrol : http://theconversation.com/dapres-une-etude-cet-imparable-argument-dautorite-74413

Les incroyables propriétés de la langue de grenouille

Les incroyables propriétés de la langue de grenouille

VOUS avez sûrement déjà vu un documentaire animalier dans lequel une grenouille (ou un crapaud) projette sa langue hors de sa bouche pour attraper une mouche. Si quelque chose vous a épaté, c’est probablement la vitesse et la précision du « tir », mais vous ne vous  êtes pas demandé comment la grenouille faisait pour que sa proie reste collée à sa langue. Sans doute celle-ci est-elle très adhésive, vous êtes-vous dit en oubliant la question annexe : dans ce cas, comment le batracien décolle-t-il l’insecte pour l’avaler ?

Comme le montre une très jolie étude américaine publiée le 1er février dans le Journal of the Royal Society Interface (qui, comme son nom le suggère, traite de sujets à l’interface entre la biologie et la physique), pour réussir sa « pêche à la mouche », la langue de la grenouille doit être dotée de propriétés plutôt hors du commun. Car, ainsi que l’expliquent les auteurs, chercheurs à l’Institut de technologie de Géorgie, même s’il n’a l’air de rien, en réalité rien ne va de soi dans cet acte de prédation.

Pour attraper les insectes, on devine que la grenouille doit aller très vite. Après avoir filmé des batraciens avec une caméra à grande vitesse permettant un ultra-ralenti, les scientifiques se sont aperçus que l’attaque durait 7 centièmes de seconde, soit cinq fois moins de temps qu’il ne vous en faut pour cligner des yeux. Or, écrivent-ils, à cette vitesse-là, aucun produit du commerce n’a le temps d’adhérer à une surface, et encore moins si cette surface présente des textures différentes comme le corps d’un insecte. Si vous essayiez de reproduire l’attaque de la grenouille, vous auriez toute les chances d’envoyer valdinguer l’insecte au loin, comme une raquette fait rebondir une balle.

Ces chercheurs américains ont donc essayé de comprendre quels phénomènes physiques se cachaient derrière cette prouesse. En plus d’analyser des vidéos, ils ont aussi récupéré, auprès du Jardin botanique d’Atlanta, six grenouilles et deux crapauds – tous d’espèces différentes – pour mesurer toutes les caractéristiques physiques de leur langue et de la salive qui la recouvre. Le résultat de leurs travaux est assez sidérant. Si les batraciens parviennent à engluer si vite leurs proies, c’est le résultat de deux phénomènes extrêmes : la très grande mollesse de la langue, dix fois plus élastique que la langue humaine, et un comportement incroyable de la salive.

Une viscosité changeante

Commençons par la texture de la langue. Celle-ci est tellement molle qu’au contact de l’insecte, au lieu de le frapper, elle se déforme – un peu comme l’avant des voitures modernes lors des crash tests –, absorbe le choc et s’enroule autour de la proie. Ce faisant, elle augmente la surface de contact avec l’insecte. Rappelons que tout cela ne dure que quelques centièmes de seconde… Pendant ce temps, que fait la salive déposée à la surface de la langue ? Eh bien elle adopte un comportement des plus étranges, celui d’un fluide dit non-newtonien. Quésaco ? Contrairement à l’eau qui, calme ou agitée, garde une viscosité identique, un fluide non-newtonien voit sa viscosité varier en fonction des contraintes qui sont exercées sur lui. Vous avez peut-être tenté l’expérience de verser un peu d’eau dans de la maïzena. Le mélange obtenu a des propriétés étonnantes : liquide au repos, il se durcit si on appuie dessus, au point qu’on peut même marcher sans couler dans un bassin rempli d’une mixture de ce type.

La salive de grenouille est un liquide non-newtonien doté des propriétés inverses : très visqueuse au repos, elle devient beaucoup plus liquide lorsque des contraintes s’appliquent sur elle. C’est ce qui se produit au moment du choc avec l’insecte : en une fraction de seconde, la salive se fluidifie, ce qui lui permet de se couler dans tous les interstices existant à la surface de la proie. Mais dès que le premier contact est terminé, elle reprend, toujours en une fraction de seconde, sa viscosité initiale. Lorsque la langue se rétracte, l’insecte est complètement englué et même le très rapide mouvement de retour ne permet pas qu’il s’arrache de là. En fait, la salive se comporte exactement comme les peintures modernes, très liquides lorsque le rouleau les étale, mais bien adhésives au support ensuite : elles ne se mettent pas à pleuvoir du plafond ni à couler le long du mur.

On en revient maintenant à la question du début : une fois que la bestiole est dans sa bouche, comment la grenouille s’y prend-elle pour la décoller de sa langue ? Si vous avez suivi le mécanisme, vous aurez trouvé facilement la réponse : il lui suffit d’appliquer de nouveau une contrainte sur sa langue pour que la salive se fluidifie de nouveau. Le plus étonnant est la source de ce frottement : le batracien le produit… avec ses yeux ! Chez la grenouille, l’arrière des globes oculaires donne en effet directement dans la cavité orale. L’animal les rétracte dans sa bouche pour pouvoir exercer une pression sur la langue, décoller l’insecte et le pousser dans sa gorge afin de l’avaler, tout comme une crosse de hockey pousse le palet sur la glace, pour reprendre l’image qu’utilisent les chercheurs dans leur article. Ceux-ci concluent leur étude en expliquant que l’on pourrait copier la langue de la grenouille pour mettre au point des colles réversibles à prise ultra-rapide. Après les pattes de gecko, après le mucus de la patelle, après la bave de l’escargot, voici peut-être venu le temps de la langue de grenouille dans le monde des adhésifs bio-inspirés.

Pierre Barthélémy ( Twitter  Facebook)

Source : Les incroyables propriétés de la langue de grenouille, publié sur le monde, 05/02/2017

Sur les sciences et le progrès dans la République

ASSEMBLÉE NATIONALE, CONSTITUTION DU 4 OCTOBRE 1958, QUATORZIÈME LÉGISLATURE, le 26 janvier 2017.

Mesdames, Messieurs,

« La République n’a pas besoin de savants ! » telles sont les paroles attribuées au président du Tribunal Révolutionnaire au moment de la condamnation à mort du chimiste Lavoisier en 1794 après la suppression de l’Académie des sciences par la Convention. « Et pourtant elle tourne ! » aurait dit Galilée après le procès qui lui a été fait après sa présentation de la théorie de la rotation de la terre. « Les partisans de Mendel sont les ennemis du peuple soviétique » disait Lyssenko, qui obtenait de Staline et de Khrouchtchev la condamnation de la génétique classique et la fermeture de laboratoires et le licenciement de chercheurs dans l’ex-URSS.

Si de nos jours, cette forme d’obscurantisme semble dépassée (alors que les créationnistes contestent aujourd’hui le Big Bang et la théorie de l’évolution), nous devons malheureusement affronter un climat de défiance croissant vis-à-vis des institutions scientifiques et des savants qui, pourtant, constituent un pilier fort de notre République

Le développement de la modernité industrielle s’est accompagné de progrès fulgurants et d’une liberté de création avec l’émergence de grands inventeurs (Lavoisier, Faraday, Edison, Darwin, Pasteur, Poincaré, Marie Curie, Einstein, Pauling, Planck, Schrödinger, De Gennes, Charpak….et même Steve Jobs). Pourtant, la place de la démarche et de la culture scientifique est aujourd’hui en net recul dans notre pays et dans notre République.

Tout en favorisant l’accès à la culture, la numérisation en cours de nos sociétés et l’usage d’internet amplifient la dérégulation du marché de l’information scientifique, faisant place à la diffusion de croyances les plus dangereuses, si bien que les pouvoirs publics et nos concitoyens peinent à hiérarchiser les éléments nécessaires à la prise de décision en matière de choix scientifiques et techniques. Cette évolution inquiétante prend sa source dans la confusion de plus en plus marquée entre ce qui relève des savoirs issus d’une démarche scientifique rigoureuse et ce qui relève de croyances ou de désinformation. Elle se traduit par une remise en cause croissante de la valeur culturelle et de l’impact social du travail scientifique.

Par la confusion entretenue entre savoir et opinion dans les espaces publics et numériques, la défiance qui en résulte menace l’activité et les fondements de la recherche scientifique. La prolifération d’informations tronquées ou inexactes, comme de théories complotistes, génère des inquiétudes, de l’endoctrinement et alimente les parcours de radicalisation. Cela se traduit par une fragilisation du socle des valeurs républicaines. Ainsi, la rationalité et l’objectivité, héritages de la philosophie des Lumières, s’opposent-elles désormais au relativisme, une idéologie qui conteste l’idée même de progrès et impose ses vues à force d’amalgames, d’anathèmes voire d’actions violentes. Au-delà, c’est l’existence même de la démocratie qui est menacée si nos scientifiques et nos ingénieurs ne peuvent s’exprimer et être écoutés dans leur rôle d’expertise au prétexte que leurs avis ne constituent que des opinions parmi d’autres.

Dans tous les débats importants de ces dernières années, notamment sur les biotechnologies, la politique vaccinale, les radiofréquences ou l’énergie, les gouvernements qui se sont succédé depuis plus de vingt ans ont trop souvent reculé ou démissionné. Ainsi, les discussions autour de la régulation des nanotechnologies organisées par la Commission nationale du débat public en 2009-2010, ou encore celles sur le stockage de déchets nucléaires à Bure-Saudron ont-elles été perturbées et finalement empêchées. De tels renoncements sont hélas nombreux.

Cette confusion est accrue par l’amalgame entre la science et ses applications. Assurément, les découvertes scientifiques peuvent générer des technologies qui, à côté de bénéfices indéniables, peuvent présenter des effets dangereux et il ne s’agit en aucune façon de verser dans un scientisme béat, ou dans une croyance aveugle à l’innocuité des technologies. Les risques ne doivent pas être balayés d’un revers de la main, mais plutôt évalués rationnellement, en tenant à distance les croyances, les partis-pris idéologiques et les discours sectaires car, comme le disait fort justement le mathématicien philosophe, prix Nobel de littérature Bertrand Russell : « La science n’a jamais tout à fait raison, mais elle a rarement tout à fait tort, et, en général, elle a plus de chance d’avoir raison que les théories non scientifiques. Il est donc rationnel de l’accepter à titre d’hypothèse. » En particulier, les actions destinées à empêcher la réalisation d’études d’impact et d’évaluation des risques doivent être dénoncées comme contraires au bien public et fortement sanctionnées.

La culture scientifique est en recul dans les médias où, trop souvent, des raisonnements simplistes, constituant avant tout des coups de communication et ne respectant pas les règles éthiques, sont présentés comme des informations incontestables, lesquelles sont souvent démultipliées par les réseaux sociaux.

La pratique de la méthode scientifique est en recul dans nos écoles, comme l’apprentissage des sciences qui contribue pourtant à la formation des futurs citoyens.

La démarche scientifique régresse enfin dans les assemblées et les ministères, là même où se prennent des décisions non suffisamment fondées engageant l’avenir de notre pays et de nos compatriotes. Des responsables politiques n’hésitent pas à contredire des avis ou des recommandations émis par des comités scientifiques et des agences créés par l’État ou par l’Union européenne pour les éclairer dans leurs décisions.

Depuis des décennies, les crédits budgétaires en faveur de la recherche ont trop souvent été rognés.

La parole scientifique doit retrouver toute sa place au cœur des grands débats de notre démocratie, dans les enceintes parlementaires comme dans les ministères. En leur temps, des hommes d’État comme Pierre Mendès France, le général de Gaulle ou François Mitterrand avaient élevé la recherche scientifique et ses applications au rang de priorité nationale. Ce n’est plus suffisamment le cas aujourd’hui et c’est la nature même du progrès qui est remise en cause. Celui-ci doit bien sûr être maîtrisé et partagé mais la République doit avoir foi dans le progrès scientifique, qui a été et reste le principal facteur de progrès économique, sanitaire, social et environnemental.

Plus que jamais, la République a besoin de savants.

PROPOSITION DE RÉSOLUTION

Article unique

L’Assemblée nationale,

Vu l’article 34-1 de la Constitution,

Vu l’article 136 du Règlement de l’Assemblée nationale,

Considérant que la France, héritière d’une longue tradition scientifique, rationaliste et de la philosophie des Lumières, a toujours incarné le progrès et la science au service de l’humanité ;

Considérant, comme le souligne le rapport « L’avenir de la consultation scientifique pour les Nations Unies » publié par l’UNESCO le 18 septembre 2016 que : « Les sciences, la technologie et l’innovation ont la capacité de changer la donne pour relever pratiquement tous les défis mondiaux les plus urgents. » ;

Considérant que les discours partisans voire sectaires fondés sur une défiance croissante vis-à-vis de l’expertise scientifique constituent une grave remise en cause de cet esprit des Lumières en s’attaquant aux règles mêmes sur lesquelles repose l’institutionnalisation de toute science ;

Considérant que la confusion entre les connaissances et les opinions constitue une sérieuse menace pour le bon fonctionnement de notre démocratie en alimentant les processus sectaires et diverses formes de radicalisation ;

Considérant que la culture scientifique est à la base de toute recherche de connaissance vraie et que, par ce fait même, son respect est la condition indispensable à l’élaboration de politiques scientifiques cohérentes ;

Considérant que la recherche scientifique et technologique constitue un élément indispensable à la compétitivité de la France au niveau européen et même mondial ;

Considérant que la culture scientifique est le ferment indispensable pour des citoyens éclairés et responsables ;

Considérant que la démocratisation de l’accès aux savoirs scientifiques constitue un progrès social essentiel et génère des défis stimulants en matière de politiques culturelle et éducative ;

Considérant que l’enseignement des sciences, depuis l’école élémentaire jusqu’aux études supérieures, représente un enjeu considérable pour notre pays ;

Considérant qu’il revient aux chaînes de télévision et de radio du service public de l’audiovisuel de donner une place éminente aux émissions d’information et de transmission des connaissances scientifiques et des progrès technologiques ;

Considérant que l’expertise scientifique n’est plus assez prise en compte dans les processus de la décision politique ;

Considérant que les gouvernements successifs, depuis des décennies, n’ont pas su consacrer l’effort budgétaire indispensable dans le domaine de la recherche et du développement contrairement à d’autres pays voisins ;

Considérant que nos universités, nos écoles et nos organismes de recherche accomplissent un travail dédié à la défense et à la diffusion de la culture scientifique ;

Considérant que l’étude des sciences, de la philosophie et de l’épistémologie, et plus généralement des sciences humaines et sociales, joue un rôle éminent dans la construction de la culture scientifique ;

Considérant qu’en se dotant d’un Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST), l’Assemblée nationale et le Sénat ont souhaité que l’action et les décisions du Parlement puissent être éclairées sur les conséquences des choix à caractère scientifique et technologique ;

L’Assemblée nationale :

1° Souhaite rappeler que la science, comme n’a cessé de le mentionner l’OPECST dans ses études touchant à la culture scientifique et technique, est un vecteur essentiel de l’innovation, dimension centrale du développement de l’économie et de l’emploi dans les sociétés développées contemporaines ; qu’elle constitue également un bien commun, comme le souligne un rapport de l’UNESCO, en ouvrant les perspectives culturelles des citoyens à la recherche d’une meilleure compréhension du monde.

2° Suggère que l’initiation aux sciences à l’école élémentaire soit considérablement renforcée pour davantage sensibiliser les jeunes élèves à la démarche scientifique.

3° Invite le Gouvernement à veiller à la qualité des enseignements scientifiques dispensés au collège et au lycée. De fait, les évolutions récentes apparaissent alarmantes.

4° Souhaite, ainsi que le préconisent l’Académie des sciences, l’Académie des technologies et l’Académie des sciences morales et politiques, que le Gouvernement encourage une plus grande interaction entre enseignements en sciences technologiques et sciences humaines dès les classes de lycée, ainsi que dans la suite de tous les cursus scientifiques et inversement.

5° Invite en particulier le Gouvernement à étoffer la partie du programme de philosophie consacrée aux sciences et à l’épistémologie au lycée et dans l’enseignement supérieur. En l’état, seuls les élèves de la filière littéraire abordent les chapitres consacrés au vivant, à la théorie et l’expérience. De tels développements seraient profitables à tous et plus particulièrement aux élèves des filières scientifiques qui pourraient acquérir davantage de connaissances épistémologiques sur les pratiques scientifiques et sur les rapports science-société.

6° Souhaite que les travaux et les recommandations des académies soient davantage suivis, tant dans les domaines de l’enseignement que dans ceux de la décision politique et que celles-ci devraient avoir pour mission d’émettre des avis sur les propositions du Gouvernement en matière scientifique et technologique.

7° Invite le Gouvernement français à mettre en avant des stratégies de communication et de débats avec les citoyens adaptés à l’évaluation et à la gestion des risques technologiques. L’enjeu principal de l’expertise scientifique et technique consiste à fournir une évaluation en amont de la prise de décision politique. Il convient donc de développer des procédures d’examen propres à éclairer les débats sociétaux. Il convient également d’établir une distinction claire entre les éventuels dangers intrinsèques dus à une technologie donnée et les risques inhérents à son utilisation. Ces procédures d’examen doivent établir une balance bénéfices/risques (socio-économiques, sanitaires et environnementaux) liée autant à l’adoption d’une technologie que, le cas échéant, au renoncement à celle-ci.

8° Souhaite que les chaînes de télévision et les stations de radio du service public renforcent l’offre d’émissions scientifiques, en particulier aux heures de plus grande écoute et s’efforcent d’en faire de véritables espaces de savoir, en veillant notamment à y donner la parole aux membres de la communauté scientifique.

9° Invite le Gouvernement à réfléchir à des pratiques pédagogiques fondées sur l’usage raisonné des technologies numériques, en particulier à l’apprentissage du tri de l’information qui faciliterait la distinction entre des savoirs établis et des opinions sans fondement scientifique.

10° Invite le Gouvernement à donner plus d’importance aux études et rapports de l’OPECST dans l’élaboration et le suivi des politiques qui impliquent la science ou ses applications. Cela devrait se traduire, en particulier, par un renforcement de sa responsabilité dans l’organisation du travail parlementaire et dans le développement d’une politique culturelle attentive aux grands enjeux de la science contemporaine, via notamment un avis formel de l’OPESCT joint aux textes présentés et l’élargissement de ses missions à des études d’impact préalables pour tout projet ou proposition de loi impliquant des choix à caractère scientifique ou technologique.


ASSEMBLÉE NATIONALE

CONSTITUTION DU 4 OCTOBRE 1958

QUATORZIÈME LÉGISLATURE

Enregistré à la Présidence de l’Assemblée nationale le 26 janvier 2017.

http://www2.assemblee-nationale.fr/documents/notice/14/propositions/pion4421/(index)/depots

PCAST Releases Report on Forensic Science in Criminal Courts 

Forensic science has become a mainstay of many a TV drama, and it’s just as important in real-life criminal trials. Drawing on biology, chemistry, genetics, medicine and psychology, forensic evidence helps answer questions in the legal system. Often, forensics provides the “smoking gun” that links a perpetrator to the crime and ultimately puts the bad guy in jail.

Shows like “CSI,” “Forensic Files” and “NCIS” cause viewers to be more accepting of forensic evidence. As it’s risen to ubiquitous celebrity status, forensic science has become shrouded in a cloak of infallibility and certainty in the public’s imagination. It seems to provide definitive answers. Forensics feels scientific and impartial as a courtroom weighs a defendant’s possible guilt – looking for proof beyond a reasonable doubt.

But the faith the public and the criminal justice system place in forensic science far outpaces the amount of trust it deserves.

For decades, there have been concerns about how the legal system uses forensic science. A groundbreaking 2009 report from the National Academy of Sciences finally drew the curtain back to reveal that the wizardry of forensics was more art than science. The report assessed forensic science’s methods and developed recommendations to increase validity and reliability among many of its disciplines.

These became the catalyst that finally forced the federal government to devote serious resources and dollars to an effort to more firmly ground forensic disciplines in science. After that, governmental agencies, forensic science committees and even the Department of Defense responded to the call. Research to this end now receives approximately US$13.4 million per year, but the money may not be enough to prevent bad science from finding its way into courtrooms.

This fall, the President’s Council of Advisors on Science and Technology (PCAST) released its own report on forensic science. It’s a more pronounced acknowledgment that the discipline has serious problems that require urgent attention. Some scientific and legal groups are outraged by or doubtful of its conclusions; others have praised them.

As someone who has taught forensic evidence for a decade and dedicated my legal career to working on cases involving forensic science (both good and bad), I read the report as a call to address foundational issues within forensic disciplines and add oversight to the way forensic science is ultimately employed by the end user: the criminal justice system.

Is any forensic science valid?

The President’s Council of Advisors on Science and Technology recognized ongoing efforts to improve forensic science in the wake of the 2009 NAS report. Those efforts focused on policy, best practices and research around forensic science, but, as with any huge undertaking, there were gaps. As PCAST noted, forensic science has a validity problem that is in desperate need of attention.

PCAST focused on what’s colloquially termed “pattern identification evidence” – it requires an examiner to visually compare a crime scene sample to a known sample. PCAST’s big question: Are DNA analysis, bite marks, latent fingerprints, firearms identification and footwear analysis supported by reproducible research, and thus, reliable evidence?

What does a firing pin indentation on a bullet really tell us? Macroscopic Solutions, CC BY-NC

They were looking for two types of validity. According to PCAST, foundational validity means the forensic discipline is based on research and studies that are “repeatable, reproducible, and accurate,” and therefore reliable. The next step is applied validity, meaning the method is “reliably applied in practice.” In other words, for a forensic discipline to produce valid evidence for use in court, there must be (1) reproducible studies on its accuracy and (2) a method used by examiners that is reproducible and accurate.

Among the forensic science they assessed, PCAST found single-sourced DNA analysis to be the only discipline that was valid, both foundationally and as applied. They found DNA mixture evidence – when DNA from more than one person is in a sample, for instance from the victim and the perpetrator, multiple perpetrators or due to contamination – to be only foundationally valid. Same with fingerprint analysis.

Firearms identification had just the potential for foundational validity, but the research that could support it hasn’t been done yet. Footwear analysis lacked studies even showing potential for foundational validity. And bite mark analysis has a low chance of achieving any validity; the PCAST report advised “against devoting significant resources” to it.

All these types of evidence are widely used in thousands of trials each year. Many additional cases never even go to trial because this supposedly definitive evidence seems damning and compels defendants to plead guilty. But the lack of reliable science supporting these disciplines undermines the evidence which, in turn, undermines criminal convictions.

Risks of lacking validity

When forensic methods are not validated but nevertheless perceived as reliable, wrongful convictions happen.

For example, the field of forensic odontology presumes that everyone has a unique bite mark. But there’s no scientific basis for this assumption. A 2010 study of bite marks from known biters showed that skin deformations distort bite marks so severely that current methods of analysis could not accurately include or exclude a person based on the pattern left by their teeth.

In 1986, Bennie Starks was convicted of rape and other crimes after forensic odontology experts testified he was the source of a bite mark on the victim. In 2006, DNA test results showed Starks could not have been the perpetrator. Starks spent 20 years in prison for a crime he did not commit because of faulty evidence from an unreliable discipline. More recently, the Texas Forensic Science Commission recommended a flat-out ban on bite mark evidence.

What happens if the forensic evidence that convicted you is flimsy? West Midlands Police, CC BY-SA

Like in Starks’ case, questionable forensic evidence plays a significant role in at least half of overturned convictions, according to the Innocence Project. Once a verdict comes in, it becomes a Sisyphean task to undo it – even if newly discovered evidence undermines the original conviction. It’s next to impossible for people once convicted to get their cases reconsidered.

At the moment, only two states (Texas and California) permit a defendant to appeal a conviction if the scientific evidence or the expert who testified is later discredited. More laws like these are needed, but it’s politically a hard sell to grant more rights and avenues of appeal to convicts. So even if the science is undermined or completely discredited, a prisoner is often at the mercy of a court as it decides whether to grant or deny an appeal.

What should be admissible?

The PCAST report recommended judges consider both the foundational and applied validity of the forensic discipline that produced any evidence before admitting expert testimony. This includes ensuring experts testify to the limitations of the analysis and evidence. For example, the justice system traditionally considers fingerprint evidence as an “identification” – for instance, the thumbprint recovered from the crime scene was made by the defendant’s thumb. No one ever testifies that there are little scientific data establishing that fingerprints are unique to individuals. The same holds true for other types of pattern identification evidence such as firearms, toolmarks and tire treads.

The National District Attorneys Association (NDAA) was critical of the PCAST report. It countered that there actually is scientific data validating these forensic fields, but members of PCAST did not adequately consult subject-matter experts. The NDAA also worried that if courts required stronger scientific validity before allowing evidence into court, it would hamstring the entire investigative process.

The NDAA concluded that judges should continue to be the ones who decide what makes evidence reliable and thus admissible. It asserted that the stringent requirements to become expert witnesses, along with the ability to cross-examine them in court, are enough to guarantee reliable and admissible evidence.

But should the admissibility of scientific processes – which ought to be grounded in their proven ability to produce reliable evidence – be determined by people who lack scientific backgrounds? I would argue no.

Pattern identification evidence shouldn’t be excluded from cases wholesale, but forensic evidence needs to be placed into context. When the human eye is the primary instrument of analysis, the court, the attorneys and the jury should be fully aware that certainty is unattainable, human error is possible, and subjectivity is inherent.

Reliance upon the adversary system to prevent wrongful convictions and weed out junk science requires a leap of faith that ultimately undermines the integrity of the criminal justice system. Counting on cross-examination as an effective substitute for scientific rigor and research can’t be the answer (although it has been for more than a century).

The PCAST report is yet another wake-up call for the criminal justice system to correct the shortcomings of forensic science. We demand that guilt be proven beyond a reasonable doubt; we should also demand accurate and reliable forensics. Without improvement, we can’t trust forensic science to promote justice.

Source : PCAST Releases Report on Forensic Science in Criminal Courts | whitehouse.gov

La méthode des «Experts», science ou sorcellerie?

La méthode des «Experts», science ou sorcellerie?

Une commission de savants américains a rendu un rapport accablant sur les méthodes de la police scientifique et de la médecine légale. Qu’en disent les spécialistes romands?

La science forensique, ce cocktail imparable d’ADN, de cadavres disséqués et de traces de semelles qui se déploie triomphalement dans des séries TV telles que Les Experts, ne serait-elle finalement pas si scientifique que ça? C’est ce que qu’avance un rapport rendu en septembre aux Etats-Unis par les savants rassemblés au sein du Conseil du Président sur la science et la technologie (PCAST).

Exemples? L’analyse des empreintes digitales serait «une méthode purement subjective» dont les tribunaux sous-estimeraient la marge d’erreur, influencés par la «prétention d’infaillibilité» collant à cette technique. L’examen d’une morsure, censée correspondre de façon unique à la dentition qui l’a infligée, ne permettrait pas d’identifier un individu avec une «exactitude raisonnable».

L’étude des rayures laissées par une arme sur une balle a la réputation d’être une méthode d’une «précision presque absolue», mais «sa validité fondamentale n’a pas été établie»… La science forensique s’apparenterait ainsi à un «art», voire à une «sorcellerie», plus qu’à une véritable science, résume Jessica Gabel Cino, membre du Bureau des normes de l’Académie américaine des sciences forensiques, dans un article du site The Conversation.

«Une problématique spécifique aux Etats-Unis»

«C’est une problématique spécifique aux Etats-Unis, où le système est très différent du nôtre: il produit des avis tranchés, en noir et blanc, sans nuances de gris. Vous n’entendrez jamais un expert américain dire: on ne peut pas répondre. Chez nous, c’est régulièrement le cas», commente Silke Grabherr, directrice du Centre universitaire romand de médecine légale. «En Suisse, le procureur nomme des experts lors de l’enquête, avec un mandat qui est à la fois à charge et à décharge de la personne mise en cause. Dans le système juridique américain, les experts sont mandatés – et instrumentalisés – par les parties. Ce qui n’est pas bon pour une saine administration d’éléments scientifiques», ajoute Christophe Champod, professeur à l’Ecole des sciences criminelles de l’Université de Lausanne.

Empreintes et scanners mortuaires

La subjectivité des experts est en point de mire du rapport du PCAST. «En réalité, elle est toujours présente, rétorque Silke Grabherr. Une autopsie est quelque chose de subjectif: le résultat dépend de la personne qui la fait. En Suisse, on en est conscient. C’est une des raisons pour lesquelles, en médecine légale, un expert ne travaille jamais en solo: on est toujours rattaché à un institut et on est au moins deux pour chaque affaire. On sauvegarde la documentation et on rediscute les résultats en équipe.» La documentation inclut aujourd’hui l’imagerie médicale post-mortem, une spécialité de l’institut et de sa directrice. «Lorsqu’on fait une autopsie, on peut examiner correctement le corps une seule fois. Impossible de répéter l’opération, car les organes se retrouvent coupés. Un scan, c’est-à-dire un enregistrement numérique de l’extérieur et de l’intérieur du corps, peut en revanche être vu et revu par plusieurs spécialistes. Bien sûr, un rapport rendu sur la base de l’imagerie peut être tout aussi faux qu’une autopsie mal faite. Mais l’erreur est récupérable, car les données restent disponibles.»

À la quête d’une certitude fantasmatique, les experts romands préfèrent l’exploration consciente du champ des probabilités. «Prenez la dactyloscopie, l’analyse des empreintes digitales. Il y a une manière d’en présenter les résultats qui laisse entendre qu’il s’agit là d’un absolu. En ce qui me concerne, je m’évertue depuis des années à enseigner, tant aux étudiants qu’aux magistrats, que l’association entre une empreinte et une personne n’est pas une certitude, mais qu’elle s’entoure de probabilités. On connaît d’ailleurs un certain nombre d’affaires où il y a eu de fausses associations», reprend Christophe Champod.

Du pif aux mathématiques

Comment gérer cette incertitude? «Quand j’ai commencé dans la police scientifique, il y a 25 ans, on travaillait au pif et on donnait notre avis: c’est lui, ce n’est pas lui… Le risque d’erreur était immensément plus grand. Aujourd’hui, on a adopté une approche mathématique de l’évaluation des indices et on a mis au point une échelle verbale qu’on est en train d’introduire dans tous les services romands», répond Olivier Guéniat, chef de la police judiciaire neuchâteloise et responsable de l’harmonisation en cours des procédures de police scientifique en Suisse romande.

Exemple: «On a une analyse d’ADN qui met en cause telle personne dans telle affaire. On dira que la correspondance génétique entre l’individu et la trace trouvée sur les lieux soutient extrêmement fortement l’hypothèse que c’était lui, plutôt qu’une personne inconnue, qui était la source de cette trace. L’expression extrêmement fortement signifie que, connaissant la répartition statistique des marqueurs génétiques dans la population, il est plus d’un milliard de fois plus probable que l’individu en question en soit la source, plutôt qu’un inconnu. Ce n’est pas du 100%: la certitude n’existe pas. Il s’agit dès lors d’adopter une philosophie d’honnêteté pour évaluer dans quelle mesure un indice a une valeur probante.»

En Suisse, une formation de haut niveau

Le rapport du PCAST suggère de confier un nombre croissant d’examens à des algorithmes. Les experts romands préfèrent, eux, continuer à tabler sur une formation de haut niveau. «En Suisse, il faut six ans de formation pour devenir médecin légiste, relève Silke Grabherr. Ailleurs, en général, on se forme sur le tas en passant un ou deux ans, à la sortie de l’université, dans un centre qui pratique des autopsies… Les meilleures compétences mondiales en la matière se trouvent dans les pays germanophones, Suisse, Allemagne et Autriche. La France s’apprête à adopter le modèle suisse à partir de 2017. En Allemagne, des coupes budgétaires ont quelque peu fait baisser la qualité des services, mais on est en train de relancer un plan de formation, en reprenant plusieurs points du programme suisse.»

Christophe Champod, qui a été auditionné par le PCAST pendant l’élaboration du rapport, sera, lui, à Washington en janvier pour présenter à la National Commission on Forensic Science «une vision suisse sur d’autres manières de concevoir la police scientifique». La façon de produire un témoignage d’expert aux USA, telle qu’elle se donne à voir dans la série TV documentaire Making a Murderer, est à ses yeux «terrifiante: j’utilise la série avec mes étudiants pour leur montrer tout ce qu’il ne faut pas faire».

Expertise à vendre

Que conclure? «La question ne se poserait pas en ces termes aux Etats-Unis si en amont, il n’y avait pas toutes ces erreurs judiciaires, souvent dues à de pseudo-experts qui ne disposent pas du background nécessaire pour être fiables, et à un système juridique où on peut littéralement acheter les experts et leurs conclusions», analyse Olivier Guéniat. Entre-temps, les sciences forensiques doivent résister à d’autres assauts.

«Il y a çà et là des études qui continuent à être menées, prétendant qu’on peut lire le caractère criminel d’une personne sur les traits de son visage: telle épaisseur des sourcils, telle forme des lèvres… C’est de la science morte, qui prend des corrélations pour des causalités. Or, passer d’une corrélation à une causalité relève du raisonnement, ce ne sont pas des mathématiques. La justice humaine doit continuer à faire appel à l’intelligence, à la réflexion, à la contextualisation. Et au raisonnement qui exploite les zones grises.»

Source : La méthode des «Experts», science ou sorcellerie? - Le Temps

Testing the “Stick-on-the-wall Spaghetti rule”

Testing the “Stick-on-the-wall Spaghetti rule”

Testing the “Stick-on-the-wall Spaghetti rule”

by Simone Montangero and Francesca Vittone and Institute for Complex Quantum Systems, Ulm University Ulm, Germany

There is always a moment when Italians abroad come across a local who explains to them a simple way of knowing how to cook Spaghetti “al dente”: throw them to the wall, if they stick they are ready to be eaten. After the first shock, they typically realize that this rule is worldwide known, while it is completely unknown in Italy where pasta is simply tasted. Being scientists we aim to test this rule to be able to refuse or accept it on solid ground. Moreover, we use this occasion to approach another common problem of scientists, that is, to explain to their young children what their parents do at work: we enrolled a class of preschoolers and show them how to experimentally test a belief with scientific rigor. We hope also to contribute to reduce the frustration of other scientists when their kids ask them about their jobs: long explanations typically result in a frustrated kid going away mumbling something about firemen or bus drivers…

fig1a

Figure 1: Typical results of the experiment, with stuck spaghetti highlighted in green, failures in red.

Experiment. We test the Stick On the Wall Spaghetti (SOWS) rule with a box of standard Spaghetti “Barilla”, official cooking time 9 minutes as reported on the box. The Spaghetti are cooked for 3, 6, and 9 minutes, and then are thrown against three different kind of walls: a kitchen wall (KW), a window (F), and a whiteboard (T). We have a team of 13 throwers, preschool kids of ages between 5 and 7 years. Each thrower throws one spaghetti for each different cooking time and wall kind, for a total of 13x3x3=107 launches, which are subsequently recorded as successfully stuck or not. Figure 1, reports a typical experimental result together with typical experimental conditions. The collected raw data are reported in Figure 2, for different cooking times and wall types.

fig2

Figure 2: Histogram of the experiments results (0 means failure to, 1 success), for the three different wall types (from left to right: window, kitchen and whiteboard), different cooking times (3, 6, and 9 minutes: violet, blue and green).

The statistical analysis of the experimental data acquisition is presented in Figure 3 where we report the average probability to stick (ratio between the number of stuck spaghetti and the total number of thrown ones) as a function of the cooking time for the three different walls. As expected, in all scenarios the probability to stick (mostly) increases with time. We interpret this as a signal that no major failure occurred in our experimental test. More interesting, after 9 minutes the probability to stick is compatible to 100% within the statistical error in the three cases (in the whiteboard case it is almost exactly one) strongly supporting the SOWS rule. However, the probabilities to stick are of about 50% in all other scenarios (slightly above at six minutes, more spread at three minutes but in all cases with a big standard deviation of about 30%). This implies that a cooker with a simple test with one single spaghetti thrown to the wall cannot acquire any information: in case it sticks the cooker cannot distinguish between any of the cooking time.

fig3

Figure 3: Average probability to stick as a function of time for different wall types: Kitchen (blue), Window (green), Whiteboard (Yellow). Standard deviation is of the order of 0.5 for times 3 and 6 minutes, while it drops to about 0.3 in the first two cases and to 0 in the Whiteboard one.

Discussion. A special care has to be paid to the scenario with the whiteboard as it displays an unexpected non-monotonic result: the probability to stick decreases between 3 and 6 minutes. To investigate such behavior and be sure we are not introducing some unwanted bias in our investigation, we analyzed the average probability of success and standard deviation of each thrower, as reported in Figure 4. As it can be seen, these two quantities are homogenous among all throwers but one (our youngest brave thrower), who has almost 100% probability of success. Assuming that this is not a statistical fluctuation but a bias for which data shall be corrected for, almost cures the non-monotonic behavior of the whiteboard data. However, it does not change the overall conclusions of our work, and thus we consider this a strong signal that our data acquisition is bias free.

fig4a

Figure 4: Average probability (blue) standard deviation (green) for all launches of each thrower.

Conclusions. In conclusion, the SOWS rule shall be refused in any “reasonable” kitchen or restaurant unless a huge amount of spaghetti is wasted in statistical tests. It is indeed more efficient to rely on the cooking time reported on the box. An alternative possibility to avoid waste is that the spaghettis are eaten after being stuck on the wall or fallen onto the floor as we have experienced in our experiment! We stress that this is a clear example where the “common knowledge” shall be carefully used and thus we urge the reader never to believe simple truths even if widespread accepted. We think that our study demonstrated once more the importance of the scientific method, which can be used to improve all important steps of our life starting from a good spaghetti meal.

Acknowledgments. This work has been part of a program for preschooler kids to explain how their parents spend time at work (but not always throwing spaghetti!) and to introduce them to the scientific method. We thank the teachers and the throwers of the preschool class of the kindergarden for their dedication, passion and throwing precision.

Pourquoi les incompétents se croient si doués ? (effet Dunning-Kruger) 

Pourquoi les incompétents se croient si doués

Un jour de 1995, McArthur Wheeler dévalisa deux banques de Pittsburgh (Pennsylvanie) à visage découvert. Même pas peur. Le soir même, peu de temps après que les images prises par les caméras de surveillance eurent été diffusées au journal télévisé de 23 heures, l'homme fut assez logiquement reconnu, dénoncé, arrêté. Quand la police lui montra les enregistrements, Wheeler le voleur fut frappé de stupéfaction. « Pourtant, je portais du jus », marmonna-t-il. Apparemment, celui qui se croyait si malin s'était persuadé que le jus de citron, bien pratique pour fabriquer de l'encre invisible, allait aussi rendre son visage indétectable par la vidéosurveillance et s'en était barbouillé la trogne.

Si David Dunning et Justin Kruger, deux psychologues américains de l'université Cornell, ont évoqué la mésaventure de Mister Wheeler en préambule de l'étude qu'ils ont publiée en 1999 dans le Journal of Personality and Social Psychology, ce n'est pas parce qu'ils avaient l'intention d'y vérifier les qualités du jus de citron, mais parce qu'ils souhaitaient comprendre pourquoi les personnes incompétentes – comme l'était ce maladroit détrousseur de banques digne d'un roman de Donald Westlake – peuvent avoir l'impression que leurs mauvaises décisions sont excellentes. Pourquoi « l'ignorance engendre plus souvent la confiance que ne le fait la connaissance », pour reprendre un célèbre constat du grand observateur de ses congénères qu'était Charles Darwin.

Disons-le d'emblée, la réponse à cette question n'est pas à chercher du côté de l'intelligence – songez à votre supérieur hiérarchique et à certains chefs d’État, que vous considériez comme des non-crétins tant qu'ils n'avaient pas atteint leur seuil d'incompétence. David Dunning et Justin Kruger ont émis l'hypothèse que, chez les incompétents, existait un biais psychologique qui les poussait à surestimer leurs capacités et leurs performances. Pour mettre cette idée à l'épreuve, ils ont élaboré une batterie d'expériences destinées à tester des « cobayes » dans des domaines nécessitant un minimum de savoir et de finesse : l'humour (avec des blagues notées par des comédiens professionnels), le raisonnement logique et la grammaire.

A chaque fois, les participants devaient faire un exercice et auto-évaluer leur prestation. Quel que fût le domaine abordé, les résultats ont été d'une constance remarquable. Systématiquement, les sujets les moins aptes surestimaient de beaucoup leur capacité à réussir l'épreuve ainsi que le nombre de questions auxquelles ils avaient répondu juste. A l'inverse, les plus doués des participants avaient un peu tendance à se dévaluer. Plusieurs semaines après le test portant sur la grammaire, les auteurs de l'étude ont invité les meilleurs mais aussi les plus nuls des participants à une deuxième session au cours de laquelle ils avaient pour mission de corriger les copies de cinq autres personnes et... de se réévaluer après avoir vu leurs réponses. Il advint ce qui devait arriver : les « champions » s'aperçurent qu'ils étaient meilleurs qu'ils ne le croyaient tandis que les cancres furent incapables de reconnaître la compétence des autres et de se remettre en question. Tout allait bien pour eux. Contents, contents, contents...

Depuis cette étude, ce biais dans l'auto-évaluation des incompétents, cette « surconfiance » qu'ils ont en leur capacité, porte le nom d'effet Dunning-Kruger. Les deux chercheurs américains ont désormais, en la personne de leur nouveau président, un sujet idéal pour tester leur théorie.

Source : « Improbablologie » de Pierre Barthélémy dans le supplément Science & Médecine du Monde 

Du sel pour refroidir

Du sel pour refroidir

On montre que l’ajout de sel provoque l’abaissement de la température de solidification de l’eau en introduisant dans un mélange sel-glace un tube à essais dans lequel l’eau gèle.

Fiche d’accompagnement de l’expérience:

Matériel

Adresse de la video :http://pod.univ-lille1.fr/video/1502-du-sel-pour-refroidir/

  • un bloc de glace
  • du sel de cuisine
  • une caméra infra rouge
Montage et réalisation

Déposer une cuillère de gros sel sur le bloc de glace.

Constater que la partie du sel en contact avec le bloc de glace descend rapidement en température pour atteindre plus ou moins rapidement -19°C.

Explications

La dissolution du sel dans l’eau absorbe de la chaleur.

Pour dissoudre 1 g de sel il faut apporter une quantité de chaleur de 66 joules.

Le sel, en contact avec le bloc de glace, prend cette quantité de chaleur au bloc de glace, et on constate sur la vidéo que l’interface sel-glace devient très froide.

La température du mélange ne cesse alors de baisser pendant plusieurs minutes.

Un mélange sel-glace permet donc d’atteindre des températures très basses: de l’ordre de -19°C.

Revenons plus en détail sur ce phénomène :

L’eau pure passe de l’état solide à l’état liquide et inversement à 0°C: on appelle cette température la température de fusion de la glace et de l’eau (température qui permet le passage d’un état liquide à un état solide).

Si on a un mélange eau pure + glace pure et que la température ambiante est inférieure à 0°C, la glace ne pourra se refroidir que lorsque l’eau se sera « transformée » en glace : le mélange reste donc à 0°C le temps que l’eau devienne glace, et peut ensuite se refroidir pour s’adapter à la température ambiante (-5°C par exemple).

Le processus est le même si on a un mélange glace / eau et que la température ambiante est supérieure à 0°C (il faut que la glace fonde pour que le mélange se réchauffe ensuite).

Tout cela n’est vrai que s’il s’agit d’eau pure. En effet, si des substances sont ajoutées à l’eau, la température de fusion a tendance à baisser en fonction du type d’impuretés et de la quantité présente dans l’eau.

L’eau salée à des propriétés différentes de l’eau pure, et a une température de fusion inférieure à celle de l’eau.

Lorsque l’eau est composée de 10% de sel, elle gèle aux alentours de -7°C.

L’eau salée qui contient 23% de sel détient le record et gèle à -21°C.

Lorsque l’on répand du sel sur la neige ou la glace, celui-ci se dissout avec l’eau.

Cependant, pour se dissoudre dans l’eau, le sel a besoin d’énergie, et va donc puiser la « chaleur » de la glace, qui va alors se refroidir. On appelle cela une réaction endothermique, c’est-à-dire que le sel absorbe de la chaleur pour se dissoudre, chaleur qu’il trouve dans la glace qui se refroidit.

Mais l’eau salée a une température de fusion inférieure à celle de l’eau pure et gèle en dessous de 0°C.

Le mélange eau/ sel ne pourra pas devenir solide car la température du mélange remonte ensuite pour s’adapter à l’air ambiant (-2°C par exemple) et reste liquide, car elle ne peut se solidifier qu’à -21°C.

Et ainsi la neige ou la glace fond.

Pourquoi répand-on du sel sur les routes en hiver ? d’après(Didier Perret)

Le sel fait fondre la glace (qui est de l’eau sous forme solide) mais en même temps que la glace fond, la température du mélange glace-sel descend fortement

Lorsque la température descend en-dessous de 0°C, l’eau sous forme liquide (y compris l’humidité ambiante) se transforme en eau solide, la glace.

La différence fondamentale entre l’eau liquide et l’eau solide est la manière dont les molécules d’eau individuelles s’organisent: dans l’eau liquide, les molécules (constituées d’un atome d’oxygène auquel sont liés deux atomes d’hydrogène) sont relativement libres d’effectuer des mouvements les unes par rapport aux autres; elles se lient entre elles puis défont rapidement ces liaisons, et ainsi de suite.

Lorsque la température descend puis devient inférieure à 0°, ces mouvements ralentissent jusqu’à cesser; les molécules d’eau se lient alors de manière suffisamment durable entre elles, de manière symétrique, pour que le système se fige sous forme de glace, de l’eau solide.

Si le processus de refroidissement est lent, on observe la création de magnifiques cristaux de glace, car les liaisons entre molécules individuelles ont le temps de se former de manière très symétrique à large échelle.

Prenons à présent du sel de cuisine (chlorure de sodium); lorsqu’on épand ce sel sur une route verglacée (ou sur les glaçons du congélateur), les molécules de sel se dissocient en leurs ions sodium et chlorure, exactement comme lorsque l’on introduit du sel de cuisine dans un verre d’eau. Ces ions apprécient la proximité des molécules d’eau et perturbent localement l’arrangement de ces dernières.

Atomes d’hydrogène et d’oxygène

Ions sodium et chlorure

Une représentation du processus de dissolution du sel de cuisine (chlorure de sodium) dans l’eau.

Le chlorure de sodium est formé de l’assemblage régulier d’ions chlorures chargés négativement et d’ions sodium chargés positivement.

Si l’on observe ce qui se passe à l’échelle microscopique lorsqu’un grain de sel (qui contient des milliards de milliards de molécules) arrive en contact avec la surface de la glace, les atomes de l’eau solide et les ions du grain de sel se réarrangent pour former une nouvelle phase (H2O×NaCl; on l’appelle un eutectique ), qui fond et qui produit une fine pellicule d’eau liquide à la surface de la glace.

Le processus se propage alors en profondeur dans le reste de la glace, puisque les ions dans le film liquide entrent en contact avec la glace encore présente sous le film liquide. Lentement, l’eau solide se transforme donc en eau liquide… et salée. Le verglas fond donc sur la route.

On pourrait penser que lorsque la glace fond sous l’action du sel, la température monte au-dessus de 0°C. Eh bien il n’en est rien, au contraire !

Pour se dissocier et arracher des molécules individuelles d’eau à la glace, les molécules de sel ont besoin d’énergie, qu’elles trouvent en l’extirpant des molécules d’eau qui constituent les cristaux de glace. Et lorsque l’eau solide se fait prendre son énergie, sa température diminue fortement; en jargon spécialisé, on dit que ce processus est endothermique (absorption de l’énergie du système).

On peut faire l’expérience très simplement à la maison : broyer rapidement en paillettes grossières des cubes de glace et introduire rapidement un thermomètre dans ces paillettes (la température est de 0°C), puis ajouter rapidement du sel de cuisine sur les paillettes et mélanger avec le thermomètre pour faciliter le contact glace-sel. Au fur et à mesure que la glace fond, on constate que la température descend; théoriquement, on peut atteindre jusqu’à -22°C ! En conclusion, lorsque le sel fait fondre la glace, il la fait fortement refroidir, contrairement à ce qu’on pourrait penser.

On peut remplacer le sel de cuisine par un autre sel (p.ex. chlorure de calcium ou chlorure de magnésium) pour faire fondre la glace sur les routes ; le même processus de dissolution est observé, mais le résultat est un peu différent, puisqu’une molécule de chlorure de calcium ou de chlorure de magnésium produit deux ions chlorure pour un ion calcium ou magnésium ; dans ce cas, la présence d’un plus grand nombre d’ions permet d’accélérer la fonte de la glace.

Voir aussi :

Source : http://phymain.unisciel.fr/du-sel-pour-refroidir/

Pourquoi met-on du sel sur les routes en hiver?

Pourquoi met-on du sel sur les routes en hiver?

Pour répondre simplement, le sel fait fondre la glace (qui est de l'eau sous forme solide), ce qui est bien pratique pour tous les usagers de la route. Mais ce qui est paradoxal, c'est qu'en même temps que la glace fond, la température du mélange glace-sel descend fortement! Pour les détails, procédons par étapes: d'abord la glace, puis le sel, et finalement le mélange glace-sel.

Lorsque la température descend en-dessous de 0°C, l'eau sous forme liquide (y compris l'humidité ambiante) se transforme en eau solide, la glace. C'est ce qu'on observe lorsqu'on place de l'eau dans un congélateur.

La différence fondamentale entre l'eau liquide et l'eau solide est la manière dont les molécules d'eau individuelles s'organisent: dans l'eau liquide, les molécules (constituées d'un atome d'oxygène auquel sont liés deux atomes d'hydrogène) sont relativement libres d'effectuer des mouvements les unes par rapport aux autres; elles se lient entre elles puis défont rapidement ces liaisons, et ainsi de suite.

Lorsque la température descend puis devient inférieure à 0°, ces mouvements ralentissent jusqu'à cesser; les molécules d'eau se lient alors de manière suffisamment durable entre elles, de manière symétrique, pour que le système se fige sous forme de glace, de l'eau solide.

Si le processus de refroidissement est lent, on observe la création de magnifiques cristaux de glace, car les liaisons entre molécules individuelles ont le temps de se former de manière très symétrique à large échelle (Entendons-nous: dans le monde des molécules, une large échelle reste microscopique…).

Prenons à présent du sel de cuisine (chlorure de sodium); lorsqu'on épand ce sel sur une route veglacée (ou sur les glaçons du congélateur), les molécules de sel se dissocient en leurs ions sodium et chlorure, exactement comme lorsque l'on introduit du sel de cuisine dans un verre d'eau. Ces ions apprécient la proximité des molécules d'eau et perturbent localement l'arrangement de ces dernières.

Si l'on observe ce qui se passe à l'échelle microscopique lorsqu'un grain de sel (qui contient des milliards de milliards de molécules) arrive en contact avec la surface de la glace, les atomes de l'eau solide et les ions du grain de sel se réarrangent pour former une nouvelle phase (H2O×NaCl; on l'appelle un eutectique), qui fond et qui produit une fine pellicule d'eau liquide à la surface de la glace.

Le processus se propage alors en profondeur dans le reste de la glace, puisque les ions dans le film liquide entrent en contact avec la glace encore présente sous le film liquide. Lentement, l'eau solide se transforme donc en eau liquide… Et salée. Le verglas fond donc sur la route.

On pourrait penser que lorsque la glace fond sous l'action du sel, la température monte au-dessus de 0°C. Eh bien il n'en est rien, au contraire!

Pour se dissocier et arracher des molécules individuelles d'eau à la glace, les molécules de sel ont besoin d'énergie, qu'elles trouvent en l'extirpant des molécules d'eau qui constituent les cristaux de glace. Et lorsque l'eau solide se fait prendre son énergie, sa température diminue fortement; en jargon spécialisé, on dit que ce processus est endothermique (absorption de l'énergie du système).

On peut faire l'expérience très simplement à la maison: broyer rapidement en paillettes grossières des cubes de glace et introduire rapidement un thermomètre dans ces paillettes (la température est de 0°C), puis ajouter rapidement du sel de cuisine sur les paillettes et mélanger avec le thermomètre pour faciliter le contact glace-sel. Au fur et à mesure que la glace fond, on constate que la température descend; théoriquement, on peut atteindre jusqu'à -22°C! En conclusion, lorsque le sel fait fondre la glace, il la fait fortement refroidir, contrairement à ce qu'on pourrait penser.

On peut remplacer le sel de cuisine par un autre sel (p.ex. chlorure de calcium ou chlorure de magnésium) pour faire fondre la glace sur les routes; le même processus de dissolution est observé, mais le résultat est un peu différent, puisqu'une molécule de chlorure de calcium ou de chlorure de magnésium produit deux ions chlorure pour un ion calcium ou magnésium; dans ce cas, la présence d'un plus grand nombre d'ions permet d'accélérer la fonte de la glace.

Adresse video : http://www.rts.ch/play/tv/rts-decouverte/video/pourquoi-ajoute-t-on-du-sel-sur-les-routes-en-hiver?id=3763529

Voir aussi : CONGÉLATION DE L’EAU SALÉE ; Saler l’eau des nouilles ?

Source : Pourquoi met-on du sel sur les routes en hiver? - rts.ch - découverte - science et environnement - maths, physique, chimie

Saler l'eau des nouilles ?

Pourquoi faut-il saler l'eau de cuisson des nouilles ?

Je le sens, encore une question qui vous fige en plein coeur de la nuit, couvert de sueur, et vous empêche définitivement de vous rendormir. Tous les livres de cuisine le disent, il faut saler l'eau des nouilles pour les cuire. Mais personne ne nous dit pourquoi. Alors ça énerve.

Il n'y a pas le choix, il faut imaginer des raisons, et les tester scientifiquement...

Idée 1: L'eau salée bout plus vite que l'eau douce, alors on gagne du temps
Idée 2: L'eau salée bouillante est plus chaude que l'eau douce bouillante, alors ça cuit plus vite.

Donc, l'expérimentation est toute trouvée. Une source de chaleur, deux volumes d'eau identiques, on ajoute du sel dans l'un des deux. On chauffe chacune des deux eaux en suivant leur température au cours du temps. On ne va quand même pas se laisser marcher dessus par des nouilles.

Voici les résultats de l'expérience:

chauffage d'eau salée
Voilà donc la température en fonction du temps pour de l'eau salée et de l'eau douce. Des différences sont visibles...

Deux observations sautent aux yeux des plus myopes d'entre nous:

1/ L'eau douce chauffe plutôt plus vite que l'eau salée (ce qui donne une claque à notre 1ère idée au passage). Après coup, quand on y pense, cela paraît logique puisque on chauffe plus de matière que dans le cas de l'eau douce. Rappelez vous: "deux volumes d'eau identiques, plus du sel dans l'un d'eux...". Il est normal que plus on a de matière à chauffer et plus cela prend du temps. Il est probable que si l'on prenait les mêmes volumes d'eau douce et d'eau salée, on aurait l'inverse. Je vous laisse le soin de le tester...

2/ L'eau salée bout à une température légèrement supérieure à celle de l'eau douce (environ deux degrés Celsius). D'ailleurs cela rappelle qu'il est possible aussi de modifier la température de congélation de l'eau en lui ajoutant du sel... Là, on tient peut-être quelque chose, non? Si la température d'ébullition est plus haute en eau salée, les nouilles cuiront plus vite... Non? qu'est-ce que vous en pensez?...

A ce moment, le scientifique débutant est sur le point de se sentir tout frétillant de bonheur! Voilà enfin une bonne explication rationnelle: je gagne un peu de temps de cuisson. Un peu comme dans la cocotte-minute : la pression augmentait la température d'ébullition, et ça cuisait donc plus vite. La conscience du devoir accompli et le sentiment d'avoir apporté sa contribution à la compréhension des mystères insondables de l'Univers, notre expérimentateur est sur le point de refermer son carnet de notes quand un sentiment de malaise commence à titiller une paire de neurones jusque là somnolents.

Hem... peut-être cela ne vous aura t-il pas échappé, mais pas une seule nouille n'a été sacrifiée dans cette expérience. Pourtant, elles étaient en bonne place dans la distribution des rôles. Bien, reprenons: mêmes volumes d'eau, du sel dans un des récipients et trois nouilles dans chaque casserole dès que l'ébullition démarre (alors que la température n'augmente plus). Dix minutes plus tard, on sort nos six cobayes afin de juger de leurs mines (ils ont été cuits en simultané).

nouilles à l'eau douce et à l'eau salée

Jouons aux devinettes: lesquelles sortent de l'eau salée? Celles de droite sont plus gonflées, plus pâles et plus molles. En gros, plus cuites. Mais elles sortent de l'eau douce... Aïe...

Visiblement, la pénétration de sel dans la pâte de la nouille ralentit sa cuisson, alors que l'on espérait le contraire par l'augmentation de la température d'ébullition...

Nous voici donc tout déconfits:  on ne trouve aucun avantage à les cuire à l'eau salée, ces nouilles... Alors? Une idée?... Vous dites?... Le goût??...

Ah... C'est bien possible finalement... Bon, tant pis pour la physique...

Voir aussi : Pourquoi met-on du sel sur les routes en hiver? ; CONGÉLATION DE L’EAU SALÉE

Source : Saler l'eau des nouilles

CONGÉLATION DE L'EAU SALÉE

    Température de congélation de l'eau salée

    L'eau salée gèle à une température inférieure à 0°C, et l'abaissement de température de congélation dépend de la concentration en sel. Ainsi, l'eau de mer gèle à -1,9°C pour une salinité de 35g/l. Lorsque de l'eau salée gèle, la glace ne contient pas de sel. Les ions du sel n'arrivent pas à se placer dans la structure de la glace. Si dans un récipient on a de la glace en équilibre avec de l'eau salée, au fur et à mesure que la glace fond, l'eau devient de moins en moins salée, et la température de fusion augmente. Il n'y a donc pas de palier, à moins que l'eau salée soit en excès (eau de mer) ou que la solution soit saturée en sel (il y a alors un palier à  -21.6 °C)
      Explication de l'abaissement de la température de congélation par le sel

    L'explication de l'abaissement du point de congélation de l'eau est la suivante : il s'agit d'un phénomène entropique, c'est à dire géométrique. En s'intercalant entre les molécules d'eau, le sel dilue l'eau. Voyons cela plus en détail : lorsque la glace est en équilibre dans l'eau, il y a en fait en permanence des molécules de la glace qui s'échappent dans l'eau et, en nombre égal, des molécules de l'eau qui viennent se fixer sur la glace. Les ions du sel diluent l'eau et font que les molécules d'eau sont plus espacées.
    En effet, dans un liquide, les molécules sont en contact. On peut les considérer comme de petites sphères dures impénétrables. Les ions du sel (Na+ et Cl-) ont chacun un volume à peu près égal à celui des molécules d'eau. En se glissant entre les molécules d'eau, ces ions les séparent et les écartent les unes des autres. Étant plus espacées, les molécules d'eau frappent la glace moins souvent, et ainsi, il y en a moins qui viennent se fixer sur la glace; l'équilibre est rompu par le fait qu'il y a toujours autant de molécules qui quittent la glace (en effet, la glace ne contient pas de sel, et pour elle, rien n'est changé), et moins qui viennent se fixer dessus .C'est un phénomène tout à fait analogue à celui qui fait que l'eau s'évapore plus si la quantité de vapeur d'eau dans l'air diminue. Le sel fait baisser la "pression" de l'eau liquide.

      Animation : congélation de l'eau salée

    Dans l'animation ci-contre à droite, toute "molécule d'eau" (bille bleu violet) qui arrive sur le bord du bas gèle instantanément et devient blanche. Ce dernier bord, éjecte vers le liquide un débit de molécules qui dépend uniquement de la température. Plus il fait chaud, plus ce débit est grand. Si le débit est supérieur au débit des molécules qui arrivent, toute molécule qui arrive repart instantanément.

    Cette animation simule bien ainsi ce qui arrive dans la réalité, car, dans un mélange d'eau et de glace, il y a sans arrêt des molécules du liquide qui se fixent sur la glace, et le débit correspondant est proportionnel aux débit des molécules qui viennent frapper la glace (ici on prend un coefficient de proportionnalité de 1); d'autre part, il y a des molécules de la glace qui arrivent à se décrocher et à partir dans le liquide, et leur nombre augmente avec l'agitation donc avec la température.

    Dans un liquide, les molécules, qui ont un certain volume propre (le volume d'une molécule d'eau est voisin de celui d'un ion du sel), sont en contact. Le volume total du liquide est donc proportionnel au nombre de molécules du liquide. C'est ce qui est réalisé dans l'animation avec une profondeur de liquide proportionnelle au nombre de molécules du liquide.

    La première chose qu'on peut vérifier dans l'animation, et on peut faire cette vérification alors qu'il n'y a pas de sel, c'est que la fusion est brutale au dessus de 0°C. En effet, si une molécule part dans le liquide, cela n'augmente pas le débit de celles qui viennent se fixer sur la glace, car si le nombre de molécules dans le liquide est multiplié par 2 par exemple, la profondeur de liquide est aussi multipliée par 2, donc le temps pour faire un aller et retour aussi. Chaque molécule frappe donc la glace deux fois moins souvent. Si donc la température est telle qu'il y a un déséquilibre entre le nombre de molécules qui sortent et le nombre de celles qui rentre dans la glace, la fusion ne compense pas ce déséquilibre. On voit donc bien sur l'animation, l'extrême sensibilité du comportement collectif des molécules à la température. Dans la réalité, la fusion abaisse la température, donc diminue le débit des molécules qui vont de la glace vers l'eau, rétablissant ainsi l'équilibre. Ce phénomène n'est pas pris en compte dans l'animation.

    Mettons nous maintenant à une température négative, et introduisons du sel (billes rouges). À chaque fois qu'une bille rouge arrive, le volume augmente, donc la profondeur du liquide. Cela augmente le temps pour faire un aller et retour, pour une molécule du liquide, donc cela diminue le débit des molécules qui vont du liquide vers la glace. En effet, les ions du sel (billes rouges) ne peuvent pas rentrer dans la glace. L'équilibre est rompu, et la fusion reprend. Elle s'arrête quand les débits deviennent égaux; en effet, la fusion diminue la concentration en sel, donc augmente la température de fusion. On voit donc que le sel fait fondre la glace, et que la température de fusion de la glace dans l'eau salée dépend de la concentration de sel. Cela continue jusqu'à saturation de l'eau par le sel à 30 % de sel en poids, et la température de fusion est alors la plus basse, à -21,6°C.

      Mélange réfrigérant

    Même pour des températures très négatives, il existe un film d'eau liquide à la surface de la glace, du fait que les molécules à la surface sont moins bien attachées (elles sont retenues par un seul côté), et c'est la raison pour laquelle la glace et la neige glissent, et par conséquent pour laquelle on peut faire du ski.

    Prenons de la glace à 0°C. Si on met du sel au contact de cette glace, ce sel se dissout dans ce film d'eau à la surface de la glace. Ensuite, la glace fond (si la température est supérieure à-21.6 °C), car elle est en contact avec une solution saturée de sel dont le point de fusion est de-21.6 °C. La glace qui fond, absorbe de l'énergie qui est prise à l'agitation thermique, et la température décroît, jusqu'à -21,6°C si le sel est en quantité suffisante. On a fabriqué un mélange réfrigérant (vidéo ci-dessus à droite). En d'autres termes, le sel force la glace à fondre, et cette fusion forcée fait baisser la température. L'animation ci-contre montre l'abaissement de température quand des ions du sel ne peuvent pas pénétrer dans la glace. On calcule la moyenne de v2 et un terme est ajouté à chaque fois qu'un bille heurte le mur de droite ou celui de gauche. Quand on met le sel, dans un volume donné, là où il y avait deux molécules d'eau par exemple, il y a ensuite une molécule d'eau et un ion du sel.

Source : https://goo.gl/9ThPe7

Le Chat de Schrodinger expliqué simplement

Source : L'histoire du Chat de Schrödinger expliquée simplement

Le Chat de Schrödinger expliqué simplement

Il est une histoire des sciences que tout le monde connaît plus ou moins : celle du chat de Schrödinger. Je vais vous la raconter rapidement comme n’importe qui vous la raconterait, sans chercher à l’expliquer.

Erwin Schrödinger, l’un des piliers de la physique quantique, a imaginé une expérience de pensée à base de boite et de chat mort-vivant. Une expérience de pensée, c’est tenter de résoudre un problème en utilisant uniquement son imagination. C’est se poser la question : “que se passerait-il si….. ?”.

Le bon Erwin a donc imaginé l’expérience suivante : il enferme son chat dans une boite close, contenant un dispositif qui tue l’animal dès qu’il détecte la désintégration d’un atome d’un corps radioactif. De l’extérieur, on ne peut pas savoir ce qui se passe dans la boite.

En clair : le chat dans la boite peut vivre ou mourir, sans que l’on sache ce qui se passe depuis l’extérieur.

Dessin de l'expérience de Schrödinger

Dessin de l’expérience de Schrödinger

Schrödinger était-il un psychopathe, pour inventer cette expérience ?

Oh non, Erwin n’était pas dingue. Il a proposé cette expérience pour une bonne raison : il voulait confronter les gens aux paradoxes de la physique quantique.

Du temps d’Erwin Schrödinger, la physique quantique n’était pas encore vraiment acceptée par tous les scientifiques. En particulier, la théorie de la superposition quantique posait carrément problème.

Cette théorie nous explique que dans le monde quantique (c’est-à-dire à l’échelle de l’atome),  une particule – prenons un électron – peut être à plusieurs endroits en même temps. Vous devriez vous dire : “What ? Que l’on parle d’un électron ou d’une balle de tennis, comment un objet peut-il être à plusieurs endroits à la fois ?!”

Voila comment c’est possible (spoiler : c’est la faute aux maths)

Lorsqu’on parle des théories quantiques, il n’y a (presque) qu’une chose à garder en tête : la physique quantique est née grâce aux maths et continue à vivre grâce aux maths.

En physique classique, on dispose d’équations mathématiques pour décrire le monde qui nous entoure. On connaît par exemple l’équation “P = mg”, pour calculer un poids. En physique quantique aussi, il existe un tas d’équations pour décrire ce qui se passe à l’échelle de l’atome.

Et accrochez-vous (ouais, bon, j’exagère) : l’équation pour connaître la position d’un électron à un instant donné fait rentrer en jeu des probabilités. Autrement dit, un électron a “x% de chance d’être ici, y% d’être là, z% d’être ici ou là”. Mathématiquement, cela se traduit littéralement par : “l’électron est aux trois endroits en même temps“.

Voila pourquoi on parle de superposition quantique.

Wouahou ! Bref, donc le chat, il meurt à la fin ou pas ?

Vous avez raison, revenons-en au chat. Schrödinger a proposé cette expérience de chat dans une boite pour une raison assez simple : il voulait illustrer les paradoxes de la physique quantique à l’échelle humaine. Au lieu de parler d’un électron et d’un atome (dont tout le monde se fiche et que personne ne comprend), il a pris l’image d’un chat tout mignon.

Dans sa boite, le chat est accompagné d’un horrible mécanisme qui casse une fiole de poison s’il détecte la désintégration d’un atome d’un corps radioactif (voir le dessin plus haut).

Pas la peine de savoir à quoi correspond la désintégration d’un atome, blablabla. Tout ce qu’il faut comprendre, c’est que cet évènement de désintégration est totalement aléatoire. Autrement dit, personne au monde, pas même le scientifique le plus doué, ne serait capable de vous dire à quel moment le mécanisme dans la boite se déclenchera (ou même s’il se déclenchera).

Schrödinger s’imagine donc à côté de cette boite totalement fermée et se dit :

Je n’ai aucun moyen de savoir si le mécanisme s’est déclenché. Si mon chat était un objet quantique, je dirais qu’il est à la fois mort et vivant car selon la théorie de la superposition quantique, c’est tout à fait possible.

La seule manière pour lui de savoir si son chat est mort ou vivant, c’est d’ouvrir la boite et de constater. Lorsqu’Erwin ouvrira la boite, on parlera de décohérence quantique. La situation ambiguë (“mort ou vivant ?”) se résout instantanément car une fois la boite ouverte, le minou n’est plus “ou mort ou vivant”, il est clairement soit l’un, soit l’autre.

J’insiste sur la forme : Schrödinger dit que son chat est “mort ou vivant” car il s’est amusé à décrire le monde qui l’entourait avec une théorie propre à la physique quantique (la théorie de la superposition quantique). Or, les théories quantiques ne peuvent pas être utilisées pour décrire le monde à notre échelle. Elles ne fonctionnent qu’à l’échelle de l’atome.

Que faut-il retenir de cette expérience ?

Conclusion n°1 : la physique quantique doit rester quantique

J’aurais l’occasion d’y revenir dans un autre article mais la première conclusion est la suivante : les propriétés de la physique quantique doivent rester dans le monde quantique. Exporter les propriétés quantiques dans notre monde macroscopique conduit à des situations irréalistes, comme un chat mort et vivant en même temps.

À l’échelle de l’atome, le fait qu’un élément soit tout et son contraire est interprétable (voir l’interprétation de Copenhague). À notre échelle humaine, cela n’a aucun sens et aucun intérêt.

Les gourous (ceux des sectes) et les mordus de développement personnel adorent la physique quantique et l’utilisent de plus en plus dans une optique marketing (du gros lol ici par exemple). Ils font dire à la PQ des trucs absurdes du genre “il n’existe pas une réalité mais une superposition de réalités, blabla”. Ces gars là sont des tordus et n’ont rien compris à la PQ.

Conclusion n°2 : le chat n’est pas un objet quantique

À l’échelle de l’atome, les choses se déroulent de manière aléatoire. Un électron est un objet quantique. Un chat n’est pas un objet quantique car il ne dispose d’aucune propriété quantique. En d’autres termes : il ne suit pas le principe de superposition quantique.

Une pièce de monnaie n’est pas non plus un objet quantique : lorsque vous jouez à “pile ou face”, la pièce tombe soit sur pile, soit sur face, soit sur la tranche. On ne peut pas dire que la tranche soit une superposition de deux états, c’est un état comme un autre.

Conclusion n°3 : il existe peut-être des univers parallèles

L’interprétation de Copenhague est un courant de pensée qui cherche à donner une interprétation cohérente aux phénomènes quantiques. Par exemple : “À quoi correspond intellectuellement un objet quantique qui est dans deux états à la fois (par exemple une particule qui est à deux endroitsdifférents en même temps) ?”. Avec l’expérience du chat, on vient de voir que donner un sens à ce truc délirant n’est pas du tout facile.

Selon l’interprétation de Copenhague, l’état quantique n’a pas de sens physique. Selon cette interprétation, il est inutile de chercher une signification physique, réelle, palpable, à ce qui n’est et ne doit rester qu’une pure formule mathématique. Autrement dit : la superposition quantique est en quelque sorte un artifice mathématique utile dans les calculs des physiciens quantiques qui ne peut pas être illustré.

Pour une autre interprétation, la Théorie d’Everettl’état de superposition admet une interprétation physique. Les états superposés (chat mort et chat vivant) existeraient dans une infinité d’univers parallèles. Par exemple : si le chat de Schrödinger était un objet quantique, alors il serait mort dans un univers et vivant dans un autre univers parallèle. Lorsque Schrödinger ouvrirait la boite pour voir comment va son chat, il serait instantanément transporté dans l’un des deux univers créés, en fonction de l’état du chat. Why not ?

Aucune interprétation ne fait aujourd’hui l’unanimité des physiciens.

Pour résumer en 2 mots

En physique quantique, c’est-à-dire à l’échelle de l’atome et de l’électron, certaines particules peuvent être dans deux états contraires en même temps. On appelle ça la superposition quantique. D’un point de vue mathématique c’est tout à fait exact : un électron est mathématiquement à plusieurs endroits à la fois, car on utilise des calculs de probabilité pour connaître sa position. Il est “peut-être là, ici ou encore là”. Chaque position étant associée à un  coefficient de probabilité.

D’un point de vue physique, il y a deux écoles : d’abord l’école de Copenhague, qui dit que la superposition quantique ne doit pas chercher à être illustrée. Elle réfute l’histoire du chat de Schrödinger qui, selon elle, n’a aucun intérêt car la superposition quantique ne doit pas être interprétée physiquement. Le phénomène doit rester un concept mathématique.

Ensuite, la théorie d’Everett qui nous dit que concrètement, il existe peut-être des univers parallèles pour chaque état superposé.

PS : si la physique quantique vous passionne et que vous voulez en savoir ENCORE plus, regardez le livre qu'on a écrit, il est facile à lire et répondra à toutes vos questions.

Un hamburger a-t-il plus d’énergie qu’une Formule 1 ?

Un hamburger a-t-il plus d’énergie qu’une Formule 1 ?

Un élève, pendant le cours de technologie en classe de troisième, a interpellé son professeur pour lui faire part de son étonnement concernant deux informations repérées sur un site Internet dédié à l’énergie [2] où il était écrit :

♦ énergie chimique contenue dans un hamburger phare d’une célèbre enseigne de restauration rapide(2) : 495 kcal soit environ 2 MJ ;
♦ énergie cinétique d’un véhicule de 1 000 kg roulant à 180 km/h : 1 250 000 joules. 

Question de l’élève : Comment se peut-il qu’un hamburger ait plus d’énergie qu’une Formule 1 roulant à 180 km/h ?

Quelques réponses et pistes de ré exion sont proposées pour aider l’élève à sortir de sa légitime perplexité.

Article :  hamburger vs formula1 ou ici

Méthodologie du classement de Shangaij

Comment choisir les universités classées

Le classement académique concerne les université où un parmi tous les professeurs ou les étudiants anciens a pris le prix Nobel ou le médaille Fields; où un personnel a plublié dans Nature ou Science pendant les 10 ans derniers et où les dissertations répertoriées dans SCIE et SSCI sont relativement nombreuses. Parmi les 2000 universitées qui satisfont au moin une discipline, 1200 sont effectivement classées et 500 meilleures universités sont plubliées.

Le système des critères de classement

Les universités sont classée en matière de performance académique par 6 indices, à savoir le chiffre pondérédu nombre des anciens étudiants qui ont pris le prix Nobel et médailles Fields (alumni), le chiffre pondéré du nombre des professeurs qui ont pris le prix Nobel et médailles Fields (award), le nombre de chercheurs les plus cités dans leur discipline (HiCi), le chiffre pondéré du nombre de publications dans les revues scientifiques Nature et Science (N&S), le nombre de chercheurs répertoriés dans, le Science Citation Index-Expanded (SCIE) et le Social Science Citation Index (SSCI) (PUB), et le chiffre moyen des 5 indicateurs dernières. Le classement concerne effectivement chaque année plus de 1200 universités dont les premiers 500 sont publiées.

Lors du classement, en matière d’une des 6 indice y compris Alumni、Award、HiCi、N&S、PUB、PCP, la note la plus haute s’élève à 100. Les notes des autres universitées sont déternimées sous la forme de la proportion par rapport à la note la plus élevée. Si une distribution de données d'une indice montre une anomalie évidente, les méthodes statistiques classiques seront utilisées pour traiter les donnés. Les six notes d’une université sont pondérées afin que la note totale la plus élevée est de 100. Les notes des autres universités sont décidé en fonction de la proportion par rapport à la note la plues élevée.

Les indicateurs et le poids des indicateurs du classement académique des universitées mondiales

Indiateur de niveau 1 Indicateur de niveau 2 Code poids
Qualité éducaitàve le chiffre pondérédu nombre des anciens étudiants qui ont pris le prix Nobel et médailles Fields Alumni 10%
Qualite des professeurs le chiffre pondéré du nombre des professeurs qui ont pris le prix Nobel et médailles Fields Award 20%
le nombre de chercheurs les plus cités dans leur discipline HiCi 20%
Les résultats des recherches scientifiques e chiffre pondéré du nombre de publications dans les revues scientifiques Nature et Science N&S 20%
le nombre de dissertaitions répertoriés dans le Science Citation Index-Expanded (SCIE) et le Social Science Citation Index (SSCI) PUB 20%
La performance moyenne des professeurs le chiffre moyen des 5 indicateurs dernières PCP 10%
* Pour les universités purement littéraire, on ne prend pas en compte l’indicateur N&S. Son poids est partageé en fonction de proportion par les autres indicateurs.

La définition des indicateurs et la méthodologie des statistiques.

Alumni signifie le nombre de prix nobel et médailles Fields pris par les anciens étudiantsdans une université. Les anciens étudiants signifient les personnes qui sont diplômés en licence, masteur ou docorat. Pour mieux refléter la performance académique d’une université, les étudiants des époques différentes sont accordés des poids différents. Le poids augmente de 10% tous les dix ans. Par exemple, le poids des étudiants de 2001 à2010 est de 100%, celui de 1991 à 2000 90%, celui de 1911 à 1920 10%. Enfin, on calcule le chiffre pondéré dupuis l’année 1911. Si un ancien étudiant a obtenu plus de 2 diplômes, on ne calcule que la dernière fois.

Award signifie le nombre de Prix Noble (physique, chimie, physiologi ou médecine, économie) et Médailles Fields (mathématiques) pris par les professeurs d’une universitéé. Pour mieux refléter la performance académique d’une université, les professeurs des époques différentes sont accordés des poids différents. Le poids augmente de 10% tous les dix ans. Par exemple, le poids des profs apres 2011 est de 100%, celui de 2001 à2010 est de 90%, celui de 1991 à 2000 80%, celui de 1921 à 1930 10%. Enfin, on calcule le chiffre pondéré dupuis l’année 1921. Si le prof travaille en même temps dans deux universités, chaque établissement occupe 50% de ce chiffre. Le poids des professeurs qui partagent un Prix Nobel est la proportion des récompenses.

HiCi Le nombre de chercheurs les plus cités qui sont sélectionnés par Thomson Reuters. Thomson Reuters a publié deux listes de chercheurs les plus cités: l'ancienne liste a été publiée pour la première fois en 2001, en identifiant plus de 6000 chercheurs. Le nombre de chercheurs hautement cités sur cette liste a été utilisé dans ARWU de 2003 à 2013. En 2014, Thomson Reuters a développé une nouvelle liste des chercheurs les plus cités avec presque 3000 noms basés sur une méthodologie différente. Afin d'avoir une transition relativement douce à la nouvelle liste des chercheurs les plus cités et d'éviter trop de fluctuations de résultats du classement en raison de ce changement, à la fois l'ancienne et la nouvelle liste des chercheurs les plus cités sont utilisés dans le calcul de l'indicateur HiCi dans ARWU 2015, et elles sont pondérés de façon égale. Le score d'un établissement sur HiCi dans ARWU 2015 est la somme de son score pour l'ancienne liste et la nouvelle liste (Cliquez ici pour voir toutes ces scores). Le score HiCi d'un établissement sur l'ancienne liste est même que son score HiCi dans ARWU 2013, et le score HiCi d'un établissement sur la nouvelle liste dépend de son nombre de chercheurs les plus cités sur la nouvelle liste. Il est à noter que, Prämie la proposition de nombreus établissements et chercheurs, y compris des chercheurs les plus cités, seuls les apparitions primaires de nouveaux chercheurs les plus cités sont pris en compte dans le calcul de la score HiCi d'un établissement sur la nouvelle liste.

N&S Le nombre d'articles publiés dans Nature et Science entre 2010 et 2014. Afin de distinguer l'ordre de l'auteur apparation, un poids de 100% est appliquée pour l'auteur correspondant, 50% pour l'auteur de la première apparation(deuxième apparation de l'auteur si la première est le même que celle de l'auteur correspondant), 25% pour l'auteur de troisième propositin, et 10% pour les autres auteusr. Seules les publications d’article type est prises en considération.

PUB Le nombre total d'articles inclus le Science Citation Index-Expanded (SCIE) et le Social Science Citation Index (SSCI) en 2014. Seulement les publications d’article de type est prises en compte. Lors du calcul du nombre total de dissertation d'une institution, 'un poids particulier des deux a été introduit pour les papiers indexées dans le Social Science Citation Index.

PCP Les scores pondérés des cinq indicateurs ci-dessus respectivement divisé par le nombre de personnels universitaires à temps plein. Si le nombre de membres dess personnels académiques des institutions d'un pays ne peut pas être obtenu, les scores pondérés des cinq indicateurs ci-dessus sont utilisés. Pour ARWU 2015, le nombre de personnels universitaire équivalent à temps plein sont utilisé pour les institutions aux Etats-Unis, au Royaume-Uni, en France, au Canada, au Japon, en Italie, en Chine, en Australie, aux Pays-Bas, en Suède, en Suisse, en Belgique, en Corée du Sud, en tchèque, en Slovénie, en Nouvelle-Zélande, etc

Sources de chiffres

Le prix Nobel:http://nobelprize.org/

Médailles Fields:http://www.mathunion.org/index.php?id=prizewinners

chercheurs les plus cités dans leur discipline(HiCi):http://www.highlycited.com

Dissertations publiées dans Nature et Science:http://www.webofknowledge.com

dissertaitions répertoriés dans, le Science Citation Index-Expanded (SCIE) et le Social Science Citation Index (SSCI):http://www.webofknowledge.com

Les chiffres sur les nombres de professeurs: Les ministres d’éducation, les agences statistiques, les associations des présidents d’universités.

Option informatique session 2017| CAPES de Mathématiques

Option informatique session 2017

Un sujet 0 pour la première épreuve écrite de l'option informatique est disponible ici en format PDF. Une notice d'explication est également disponible ainsi que les fichiers sources. Ce sujet a été mis à jour le 5 juin 2016

Source : Actualités | CAPES de Mathématiques, Site du jury du CAPES externe et CAFEP de Mathématiques

Épreuves orales session 2017 | CAPES de Mathématiques

Épreuves orales session 2017

Leçon

Le candidat choisit un sujet, parmi deux qu’il tire au sort. La liste des sujets dépend de l'option choisie par le candidat, mathématiques ou informatique.

L’épreuve commence par l'exposé du plan (vingt minutes), suivi du développement par le candidat d'une partie de ce plan choisie par le jury puis d'un entretien (échange sur les points précédents).

Liste des leçons en mathématiques

Liste des leçons en informatique

Épreuve sur dossier

L’épreuve s’appuie sur un dossier fourni par le jury portant sur un thème des programmes de mathématiques du collège, du lycée ou des sections de techniciens supérieurs. Ce thème est illustré par un exercice qui peut être complété par des productions d'élèves, des extraits des programmes officiels, des documents ressources ou des manuels.

L'épreuve commence par l'exposé des réponses aux questions (vingt minutes) comprenant la présentation motivée d'exercices sur le thème du dossier, suivi d'un entretien. Ce dernier se termine par un temps d'échange avec le candidat sur les missions du professeur et  le contexte d’exercice du métier.

Ressources mises à disposition des candidats

Pendant le temps de préparation et lors de l’interrogation orale, le candidat bénéficie du matériel informatique mis à sa disposition.

Les candidats ne sont pas autorisés à utiliser de calculatrices.
Le transfert des données entre la salle de préparation et la salle d’interrogation se fait grâce au réseau de l'établissement ou éventuellement au moyen d’une clé USB fournie par le jury. L’utilisation de tout support numérique personnel est exclue.
L’usage des téléphones mobiles et de toute forme d’accès à internet est interdit dans l’enceinte de l’établissement.

Logiciels

La liste ci-dessous n'est pas définitive. Quelques logiciels seront ajoutés après la rentrée scolaire 2016.

  • LibreOffice (interface en français et éditeur d'équations) 5.0.6Website
  • Geogebra 5.0.255.0 Website
  • GéoTortue 3.14.02.19 Website
  • Python 3 (éditeur Pyzo 4.2.1 avec les bibliothèques numpy, scipy et matplotlib)  Website
  • Algobox 0.9 Website
  • Scratch Offline 447 Website
  • Scilab 5.5.2 avec le module lycée 1.4.2-1 Website
  • Xcas 1.2.0 Website
  • Casio ClassPad Manager Website
  • Emulateur HP prime 

NB : algobox et les émulateurs de calculatrices ne seront plus proposés à partir de la session 2018.

Les documents suivants sont mis à disposition des candidats :

- réglementation du concours ;
- référentiel des compétences professionnelles ;
- programmes de Mathématiques (collège, lycée et sections de technicien supérieur) et documents ressources en ligne sur Eduscol.

Manuels numériques

Ci-dessous, la liste des manuels numériques mis à disposition durant la préparation et en salle d'interrogation pour la session 2017  (tous au format PDF). Cette liste n'est pas définitive, d'autres manuels seront ajoutés après la rentrée 2016. Une bibliothèque (en cours d'élaboration) sera également proposée pour les candidats à l'option informatique.

HATIER

Odyssée : 2de (2010), 1re ES-L (2011), 1re S (2011), Terminale ES-L spécifique et spécialité (2012), Terminale S spécifique (2012), Terminale S spécialité (2012)

DIDIER

Mathsmonde : cycle 4 (en un volume) (2016)

Math'x : 2de (2010), 1re S, (2011) Terminale S spécifique (2012), Terminale S spécialité (2012)

NATHAN

Transmath : 2de (2010), 1re ES-L (2011) , 1re S (2011), Terminale ES-L spécifique et spécialité (2012), Terminale S spécifique (2012)

Hyperbole : 2de (2010), 1re ES-L (2011),  1re S (2011), Terminale ES-L spécifique et spécialité (2012), Terminale S spécifique (2012)

BORDAS

Indice : 2de (2010), 1re S (2011), Terminale S spécifique (2012)

HACHETTE

Déclic : 2de (2010), 1re ES-L (2011), 1re S (2011), Terminale ES spécifique et spécialité (2012), Terminale S spécifique et spécialité (2012)

FOUCHER

Sigma : 1re STI2D et STL (2011), Terminale STI2D et STL (2012).

Mathématiques BTS CG-Programme (2015), Mathématiques pour l'informatique BTS SIO (2014), Mathématiques BTS Industriels Tome 1 groupement A (2002), Mathématiques BTS Industriels Tome 2 groupement A (2002), Analyse et algèbre BTS Industriels Tome 1 groupements B, C et D (2014), Statistique et probabilités BTS Industriels Tome 2 groupements B, C et D (2014)

SESAMATH
Manuels Sésamath : 2nde (2014) 1ère S (2015)

Bibliothèque

Le candidat a également accès aux ouvrages de la bibliothèque du concours et peut, dans les conditions définies par le jury, utiliser des ouvrages personnels.
Seuls sont autorisés les livres en vente dans le commerce, à condition qu’ils ne soient pas annotés.
Sont exclus les ouvrages de préparation aux épreuves orales du concours définies par l'arrêté du 19 avril 2013. Le jury se réserve la possibilité d’interdire l’usage de certains ouvrages dont le contenu serait contraire à l’esprit des épreuves.

La bibliothèque du concours propose quelques exemplaires de manuels de mathématiques des sections de techniciens supérieurs (liste inchangée depuis 2014). Compte tenu du nombre d’exemplaires dont il dispose, le jury ne peut garantir la possibilité d’accéder à tous les ouvrages souhaités.

Source : Épreuves orales session 2017 | CAPES de Mathématiques, Site du jury du CAPES externe et CAFEP de Mathématiques

Une étude détermine le meilleur moment pour passer un examen


Une étude publiée par l’Académie américaine des sciences révèle le meilleur moment de la journée pour passer et réussir un examen. Au-delà d’une certaine heure, la moyenne chute.

Source : Une étude détermine le meilleur moment pour passer un examen


Les analyses révèlent que passé 8h du matin, un élève perd en moyenne 1% de sa note, chaque heure.

Une étude publiée par l’Académie américaine des sciences révèle le meilleur moment de la journée pour passer et réussir un examen. Au-delà d’une certaine heure, la moyenne chute.

Existe-t-il un bon moment pour passer un examen? D’aucuns vous répondront qu’il n’en existe pas. Ce n’est pas le cas des chercheurs du Centre pour la recherche sociale danoise. Dans leur dernière étude, ces derniers démontrent que la meilleure période serait le matin. Nos fonctions cognitives seraient au maximum de leurs capacités.

Cela équivaut à 10 jours d’absence scolaire

Pour réaliser cette étude, les chercheurs ont analysé plus de 2 millions de résultats d’examens, passés par des enfants âgés de 8 à 15 ans. Ils ont ainsi répertorié l’heure et le jour durant lequel le test était passé. Les analyses révèlent que passé 8h du matin, un élève perd en moyenne 1 % de sa note, chaque heure. Cela ne paraît pas beaucoup, mais en réalité cela équivaut à 10 jours d’absence scolaire. Logiquement les élèves en difficulté sont les plus sensibles à cet élément.

Les chercheurs ont conclu que les étudiants étaient plus efficaces au petit matin car ils ne sont pas fatigués des heures de cours et autres activités. Le Huffington Post rapporte une déclaration du docteur Hans Henrik Sievertsen, chercheur spécialisé dans l’éducation et principal auteur de l’étude. «S’ils ont un examen tard dans la journée, il faut prendre en compte le fait qu’ils sont restés 4h en classe avant» explique-t-il.

Faire des pauses permet de booster sa productivité

Cette étude confirme les informations déjà établies concernant la fatigue cognitive, qui se déclare lorsque nous dépensons de l’énergie en faisant des tâches qui demandent de la réflexion. Le docteur Sievertsen précise. «Notre habilité à nous concentrer, prendre des décisions et réagir est affectée par la fatigue cognitive, et les études ont démontré que des pauses peuvent booster la productivité».

Prendre des pauses peut donc faire la différence et améliorer les résultats d’un étudiant. Entre 20 et 30 minutes sont nécessaires pour augmenter environ 1,7% de la note. Actuellement les chercheurs tentent d’identifier quel genre de pause est la plus bénéfique entre manger une friandise, laisser son esprit divaguer ou encore aller se balader à l’air frais...

Vu dans : http://etudiant.lefigaro.fr/les-news/actu/detail/article/le-meilleur-moment-pour-passer-un-examen-est-le-19371/

La lentezza dell'aria e la velocità dell'acqua - (By Franco Bagnoli)

La lentezza dell'aria e la velocità dell'acqua

Qualche giorno fa stavo risentendo la lezione di fisica a mia figlia. Si parlava di fluidi: densità, portata, pressione, legge di Bernoulli... queste cose qui.

Ovviamente mia figlia stava ripetendo la lezione a pappagallo, con una evidentissima disvoglia di studiare.

Cercando di farla interessare di più alla materia, le ho proposto tre piccoli esperimenti casalinghi: utilizzando i concetti che stava ripetendo, misurare la densità dell'acqua, la velocità con cui esce dalla cannella della cucina e la velocità dell'aria all'uscita di una cannuccia, quando si soffia dentro a tutta forza.

Il primo esperimento è certamente il più facile. Ma prima le ho domandato quanto, secondo lei, era la densità dell'acqua e mi ha risposto a bomba: "uno!". "Uno cosa?!!!" ho strillato! La densità non è un numero puro, bisogna dare l'unità di misura. E' molto diverso provare a travasare un liquido di densità, diciamo, 1 chilogrammo per millimetro cubico (circa un milionesimo della densità di una stella di neutroni, ma un 50.000 volte più denso dell'uranio), rispetto a un liquido di densità 1 chilogrammo per metro cubico (più o meno la densità dell'aria).

La misura della densità dell'acqua è molto semplice, basta avere una bottiglia da un litro e una bilancia.

 
+

Si pesa la tara, ovvero la bottiglia vuota, che poi si sottrae al peso della bottiglia piena. Con le bilance elettroniche la cosa è ancora più facile, dato che basta azzerare la bilancia con la bottiglia vuota sopra per sottrarre automaticamente la tara. Ovviamente il peso di un litro d'acqua è venuto di circa 1 kg (1042 g), ma per calcolare la densità abbiamo ancora bisogno di sapere cos'è un litro (). Dopo molto soffrire, siamo finalmente arrivati alla corrispondenza 1 ℓ = 1 dm(un decimetro cubico). "Quindi?", ho domandato, "quanto fa in metri cubi?". Dato che un decimetro è un decimo di un metro, ovvero 1 dm = 10-1 m, abbiamo finalmente che 1 ℓ = 1 dm3 =10-3 m3, e quindi possiamo trovare la fatidica densità dell'acqua che è 1 kg/1 dm3 ovvero 1000 kg/m3. Eh, sì, un metro cubo d'acqua ha la massa di 1000 kg, ovvero pesa una tonnellata. Ma un metro cubo è tanta roba, una vasca da bagno tiene appena 100-150 litri.

Nella vita di tutti i giorni le densità sono espresse come rapporto a quella dell'acqua. In questa scala ovviamente la densità (relativa) dell'acqua è 1. Tanto per avere dei riferimenti, la densità relativa di una roccia è 4-5, del ferro è 7,8, del mercurio 13,5, dell'oro 19, dell'uranio 20, dell'alluminio 2,7. Quindi il ferro galleggia sul mercurio, l'oro affonda (ma non lo fate, il mercurio e l'oro formano un amalgama e i gioielli della mamma si macchierebbero irrimediabilmente). I solidi meno densi sono gli areogel, che arrivano a densità vicine a quelle dell'aria pur essendo ancora piuttosto robusti
[http://it.wikipedia.org/wiki/Aerogel].

Uff!, passiamo adesso alle cose un pochetto più difficili. Come si fa a misurare la velocità di uscita dell'acqua dalla cannella?

C'è arrivata subito anche mia figlia: basta calcolare il tempo che ci mette a riempire la bottiglia. Per un litro d'acqua ci sono voluti 7 secondi, quindi la portata q della cannella è q = 1 /7 s = 0,14 /s = 14 · 10-5 m3/s. Ma la portata è definita come rapporto tra volume V che passa diviso il tempo t che ci mette a passare. Possiamo immaginare un l'acqua  che esce dalla cannella come se fosse una specie di blob cilindrico. Il volume V è dato dal prodotto tra lunghezza L del cilindro per la sua sezione S, e quindi abbiamo q = V/t = SL/t, e L/t è proprio la velocità v di uscita dell'acqua. Quindi v = q/S. Il diametro della cannella è circa 0,6 cm (immagino che sia 1/4 di pollice), quindi S = πr2 con r=0,3 cm = 3 10-3 m e π =3,14. Alla fine otteniamo v = q/ (π r2) = 14 · 10-5 m3/s / (3,14 · 9 · 10-6 m2)  ≃ 5 m/s ≃ 17 km/h.

Adesso la cosa più difficile: e per il getto d'aria di una cannuccia? Non si può certo pensare di riempire una bottiglia. Si potrebbe riempire un palloncino ma la densità dell'aria ovviamente cambia quando viene compressa.

Si può però costruire una specie di venturimetro, con un'altra cannuccia. Basta tagliarla e immergerne una parte in un bicchiere d'acqua, e poi soffiare con l'altra cannuccia a filo della prima.

E' lo stesso sistema che si usa per costruire una specie di areografo con cui bagnare le persone circostanti,

YOUTUBE VIDEO

ma in questo caso la cannuccia immersa dev'essere più lunga, in modo che la depressione creata dal soffio non ce la faccia ad innalzare la colonna d'acqua fino al bordo della cannuccia stessa.

Misurando l'altezza della colonna d'acqua sappiamo quant'è la depressione. Nel nostro caso, soffiando a tutta forza sono riuscito a "alzare" l'acqua di 5 cm. Adesso usiamo l'equazione di Bernoulli [INSERIRE RIFERIMENTO PAGINA BERNOULLI] [http://it.wikipedia.org/wiki/Equazione_di_Bernoulli]

P1/2ρv2 + ρ g h  = costante,

dove P è la pressione statica, ρ la densità, g = 9,8 m/s2 è l'accelerazione di gravità e h l'altezza. Se la calcoliamo al pelo dell'acqua nel bicchiere (pressione P0) e al pelo dell'acqua nella cannuccia (pressione P) otteniamo la depressione all'interno della cannuccia, giusto per informazione,

P0 - P = ρ g h = 1000 kg/m3 · 9,8 m/s2 · 5 · 10-2 m ≃ 490 Pa

(per paragone, la pressione atmosferica è circa 105 Pa).

Se facciamo il confronto tra il bordo della cannuccia (dove si soffia, pressione P) e l'aria circostante (pressione P0), abbiamo

P1/2ρv2 = P0,

ovvero

ρ g h = 1/2ρv2

da cui

  v = √ (2g h) ≃ 1 m/s = 3,6 km/h.
Aller à la barre d’outils