Suivre ce blog
Administration Créer mon blog

Le scandale du bac 2016 (suite)

22 Juin 2016, 12:23pm

Publié par Fabien Besnard

Il y a un an j'avais faitla prédiction que l'un des sujets du bac 2016 donnerait lieu à une pétition. Aujourd'hui je reconnais humblement mon erreur : j'avais prévu qu'il s'agirait d'un sujet de science, or il comme chacun sait cette année c'est le sujet d'Anglais qui est en cause...

La différence c'est que tout-un-chacun a plus de facilité à juger de la pertinence des réclamations...

Voir les commentaires

A combinatorial problem

6 Mars 2016, 16:08pm

Publié par Fabien Besnard

A colleague of mine had to arrange his students into groups of 3 (let us assume there are 3n students to begin with). At each new session he would have to randomly generate new groups. So far this is not difficult, but the students complained that they often ended up in the same group. So there is now a constraint : each given couple of students cannot be in the same group more than once.

In order to be clear let us say that a 3-partition is a partition of the 3n students into n groups of 3 students.

The problem is to find a way to generate the longest possible sequence of 3-partition such that no couple of students lies in the same group more than once. This looked simple at first, but I could not solve it. I order to understand the complexity of it you have to play around with some examples.

For n=1 there is obviously only one possible 3-partition. For n=2, say you first partition the students like this : (123)(456). It takes little time to realize than it is not possible to find a second 3-partition satisfying the constraint. Indeed, students 1,2 and 3 have to fall in 3 different groups and there are only 2 of them !

For n=3 I let you work a little bit to find a sequence of 4 admissible 3-partition. Hence if there are 12 students, my colleague will be able to run 4 sessions in a row without the students complaining !

Is 4 optimal ? Yes, it is. If the students are numbered 1,2,...,9, then student 1 will be successively with 2 different students in each session, that is 8 other students. Since no other student is available, there cannot be a fifth session. Generalizing this reasoning sets an upper bound to the length of the sequence : E((3n-1)/2), where E is the integer part.

I found a way to realize this optimum if n is a power of 3. In that case, we can imagine that the students are the points in the affine space V=(Z/3Z)^k, where 3n=3^k. The groups of 3 students will be parallel lines, and a 3-partition will be a partition of V into parallel lines. It is not difficult to count them (there are 1+3+...+3^(k-1) of them, which is precisely (3n-1)/2) and show that they satisfy the constraint. However the general case seems much more difficult.

In the case n=4 I have convinced myself that one cannot continue the following sequence of 3-partitions :

(123) (456) (789) (10 11 12)

(9 1 11) (12 4 2) (3 7 5) (6 10 8)

(5 9 10) (8 12 1) (11 3 4) (2 6 7)

I case you wonder how I found it, try to look at the pattern formed by 1, 2 and 3 in the second row : I have sent 1, which was at the first position in the first group, in the first group but in second position, 2 in the second group third position, 3 in the third group third position. Similarly if (a_0 a_1 a_2) is my group number k then I send a_0 in the group k at position 2, a_1 in group k+1 mod 4 at position 3 and a_2 in group k+2 mod 4 at position 1. This trick can be used for any n>3 but unfortunately only provides sequences of 3 admissible 3-partitions.

However, even if this sequence cannot be continued, I could not prove that no longer sequence exists. Can you ?

Finally, here is another simple trick : if (a_0 a_1 a_2) is the k-th group in some row, then in the next row you can send a_0 in the k-th group, a_1 in the group k+1 mod n, and a_2 in the group k+2 mod n, each time at the same position. When n is even it gives a sequence of length n/2, but when n is odd it is twice more efficient, giving a sequence of length n.

It may be that experts in graph theory will recognize this problem. Indeed, let us draw a graph G where each vertex is a student, linking them if they have been in the same group once. We can then draw the triangle graph of G : this is the graph whose vertices are triangles in G, being adjacent if the triangles share an edge. Each time we form a new group we select a vertex in the triangle graph which is not adjacent to any vertex already chosen. However we must also select vertices in such a way as to partition our 3n students, and I do not see how this condition can be translated in the triangle graph. But maybe someone does.

I would be very interested if anyone recognizes a well-known problem, breaks it, or make progress one way or another !

Voir les commentaires

Star Wars VII as a criminal offense against my youth

23 Décembre 2015, 10:53am

Publié par Fabien Besnard

Why the new Star Wars episode sucks and how badly it does has been told already by many. So why should I feel the need to add my personal comment ? Well, it's because I took it as a personal assault, an assault against the boy in me who saw episode IV at 6, all in thrill and wonder, and who might not survive his watching episode VII yesterday.

It all began in a Starbucks. You might wonder why the hell I erred in a Starbucks while there are so many nice cafés here in Paris, it's even worldwide known for that. Well it turned out it was the only place where I could sit down in the theatre whereabouts, and I was in a bit of a hurry. I ate there a duck club sandwich with chutney which had the taste of nothing. I do not claim it had no taste, it did, but it was the taste of nothing in particular : I could not have defined what I was eating. I wish I had known this sandwhich was an omen of the things to come...

The movie fails on so many fronts that JJ Abrams - or Jar Jar Abrams as the fans begin to call him - should feel ashamed for the rest of his life. Where to begin ?

The characters : there are like the content of my sandwhich, I don't even know how to define them. I did not expect a Shakespeare play, but at least I should be able to describe them. Take Luke from the original trilogy. You could say he's young, naive, idealistic, brave. I could do the same for Han or Leia : some adjective naturally come to mind when we think about them. But here what do we have ? A random girl with a lightsaber, a random stormtrooper who turns over to the rebellion (forgive me : the resistance) for no particular reason. It says a lot that I can't even remember their names ! The villain is even worse (I can't remember his name either) : while Darth Vader was impressive, here we must content ourselves with a pathetic teenager. While I am at it, there is a name I do remember : Snoke. Sadly he's not a pet or a droid but the uber-villain which replaces Palpatine. Come on. Snoke ?

A movie with main characters so shallow is in bad shape, but could be saved by a brillant cast and a very good script. Do I need to say we have neither ? Only Harrison Ford manages to save something of this wreck, at times. The only magical moment of this movie is when Han Solo, his head inside the star map, tells the young heroes that the events of the original trilogy were real. As if to tell us that they are gone, and will never come back.

The story then ? It saddens me to have to talk about it so I'll make it quick : take episode IV and V, eat them, throw them up, and this is it. Somehow, Abrams got confused about the meanings of "sequel" and "remake". But what I hate most about the "story" is that it pretends episode VI never existed. Episode n+1 has to take the threads left in episode n and knit them onto something new. But not there. Why ? Dunno. Probably Abrams said "screw that, I like Empire vs Rebellion so let's make it First Order vs Resistance and be done with it".

Anyway, incoherences and lack of explanations are beyond count. What's-his-name teenage bad guy makes some impression on his first appearance : he stops a laser beam in flight by the strength of his will, a feat even Vader never accomplished. But at the end of the movie he has his ass kicked by Random Girl who was never trained as a Jedi ! Even Random Stromtrooper, who wields a lightsaber for the first time of his life is a challenge to him ! The scene is so silly I wished I could have helped the writers. Maybe Bad Guy is just playing with them : he would just have to say "guys you amuse me, I will play a bit before killing you", but no, he's just so weak he's having trouble dealing with a stormtrooper and a Jedi newbie. And he says nothing, besides. It's a mute combat. Like in episode I, some would say, but at least in episode I it was beautifully choregraphied and had an awesome music, here you have none of either. I wished with all my heart that Luke could somehow help Random Girl from afar, by telepathy or something - she had visions when touching his lightsaber, so why not - but no : in the end she just remembers : hey I've got to use the Force, stupid me. And in two swift strokes the bad guy is on his ass. Laughable.

On the brighter side, the music, which is so important in Star Wars, is just average, and the special effects are good, not too CGI-laden.

So Mickey the evil mouse had my money, but it won't have it again. I certainly won't see this thing a second time, nor buy the DVD or anything related to this movie. The last tiny hope one can cling to is that whoever writes the next installment does with episode VII what Abrams did with the 6th, pretend it never existed.

Voir les commentaires

Matrices of seesaw type and the minimax principle

17 Décembre 2015, 15:13pm

Publié par Fabien Besnard

The seesaw mechanism is a popular explanation for the smallness of the observed neutrino masses. There are several kinds of seesaw mechanisms in fact, but here I will stick to the one where heavy (with mass somewhere near the grand unification scale), still unobserved, right-handed neutrinos are postulated (type 1 seesaw). After all every other particle than the neutrino comes in both right-handed and left-handed version, so it would be quite strange if only left-handed neutrinos existed. It is moreover the preferred scenario in the Noncommutative Geometry approach to the Standard Model.

So what is the seesaw mechanism ? I will explain it first, as it is generally done, in the toy-model case where there is only one generation of particles. I refer to this nice place for the physics, here I will talk only about the math (which I understand better anyway). So, suffice it to say that the mass of the neutrinos (here two of them, one left-handed and one right-handed), are the (absolute values of the) eigenvalues of a two-by-two real symmetric matrix

M=[ 0   mD]

   [mD   mR]


with a zero in the upper left corner. Moreover there are some reasons to believe that the so-called Dirac mass mD is of the order of magnitude of the electroweak scale, that is 102-103 GeV whereas m_R is much much larger, around 1016 GeV (GUT scale). Hence mD/mR will be very small. With this hypothesis it is obvious that the smallest eigenvalue of M, call it m_1 will be close to 0 and the largest, call it m2, close to m_R. If you calculate them you can be more precise and find that |m1|/mR =(mD/mR)2 + terms of order four in mD/mR  and that m2/mR=1 + terms of order 2. So you end up with a very light neutrino with mass in the range 0.001-0.1 eV (very roughly) and a very heavy one with a mass of about 1016 GeV. The order of magnitude are good and the heavy neutrino could play a role in dark matter. Hence the name "seesaw": we only observe the lowest end of the seesaw.

All this is very nice, but the mathematical eye is particularly attracted by the fact that if the original matrix M you had a ratio mD/mR between the smallest and the largest entry, and this ratio is squared for the eigenvalues. One cannot help wondering what becomes of this property when it comes to matrices larger that 2x2. In fact this is an important question also from the point of view of physics, since there exist not 1 but 3 (as far as is currently known) families of particles. This means that the entries of M are no longer real numbers but 3x3 matrices. In fact another complication appears: these matrices are complex matrices. In the one-generation case one could do with real numbers, but no longer with three generations. Hence we have have a matrix

M= [0     mD ]

     [ tmD  mR]

where mR is complex symmetric, and mD is a complex 3x3 matrix. This matrix need not be diagonalizable, but it still has a singular value decomposition : M=USV, with U,V unitary and S diagonal. Since M is symmetric we have V=tU here. The diagonal entries of S are the so-called singular values of M: these are the neutrino masses (now 6 of them). If your are not familiar with the singular value decomposition, this is not a problem here: just write A=M*M, where M* is the adjoint of M. Then A is a positive hermitian matrix, and the singular values of M are just the square roots of the eigenvalues of A. We will call such an M a matrix of seesaw type provided "mD is small relative to mR". But what does small mean here ? When we answer this question our matrix M will provide us with an order of magnitude epsilon<1 (which replaces the ration mD/mwe met before) and it would be nice to prove something like this (n=3 in our this discussion but this is of no importance) :

Gap property : the singular values of M come in two families, a first family of n small ones m1<...< mn  and a family of n large ones mn+1<...<m2n, such that the ratio mn/mn+1 is smaller than epsilon squared.

Once we have stated this, the answer to our question above becomes obvious: the order of smallness epsilon would have to be the ratio of the largest singular value of mD over smallest of mR.

When I considered this I thought it would be a great exam problem for my students: I would just have to look at how the physicists do this and write down the questions. Well physicists do it in this way: using a clever ansatz they write an approximate singular decomposition M=U S tU, where S is diagonal up to epsilon squared and U is unitary up to epsilon squared. This means that S=diagonal matrix + O(epsilon2), and UU*=Id + O(epsilon2) where O(epsilon2) is a matrix the entries of which are of order epsilon2. It is perfectly reasonable from a physical point of view, given the order of magnitudes in play, to neglect the entries of a matrix if they are small with respect to the ones of another which are larger. However there can be devilish cancelations: a matrix with large entries can have singular values as small as 0. Hence this procedure could not give a neat answer to the "gap conjecture" above. Moreover with the O(epsilon2) cluttering everywhere you easily forget that they hide multiplicative constants. Since physically the matrices are not very large (6x6) and epsilon is really small, this is of no consequence, but mathematical generality demands the property to be true as soon as epsilon<1, so you would have to take the constants into account.

Luckilly there is a beautiful theorem coming to the rescue: the Cauchy interlacing theorem is just what you need. It gives you majorations and minorations of eigenvalues of a submatrix of larger hermitian matrix. This is a corollary of the so-called minimax principle, also known as the Courant-Fischer-Weyl theorem. Proving the gap property from the Cauchy interlacing theorem is quite easy. Unfortunately my students didn't know about this theorem, so my idea of exam problem turned out to be too hard anyway. But if you want you can try it for yourself ! A solution is below. Have fun !

Voir les commentaires

Contre la limite pointée

13 Décembre 2015, 11:48am

Publié par Fabien Besnard

Derrière ce titre énigmatique se cache un concept dont j'ignorais l'existence jusqu'à hier, et une mésaventure que je m'en vais vous narrer.

Mon épouse a un élève de Terminale qui a réussi à être bon en maths malgré l'imbécillité des programmes et la faiblesse des horaires. Elle cherchait pour cette perle rare un bouquin qui pourrait quelque peu combler le gouffre entre la Terminale et la Prépa. Je cherche un peu à la Fnac et je trouve ça. En feuilletant dans le métro, je tombe sur le théorème suivant :

Th : Si une fonction f est définie sur un voisinage de a et y admet une limite finie l, alors l=f(a).

Mon sang ne fait qu'un tour : comment peut-on écrire des c..ries pareilles ???

Très déçu par ce bouquin pour cette raison et quelques autres, j'écris un commentaire incendiaire sur amazon. (Je dois être la seule personne qui achète un bouquin à la Fnac et va après sur amazon).

L'auteur me contacte et me demande un contre-exemple. Je lui donne la fonction f qui vaut 0 partout sauf en 0 et vaut 1 en 0. Et je me retiens difficilement de lui envoyer des noms d'oiseau.

Il s'offusque : mais cette fonction n'a pas de limite en 0 ! Comme ça commence à bien faire je l'envoie sur la page wikipedia idoine non sans lui conseiller de reprendre ses études. Mais il m'envoie alors cette autre page wikipedia. Et ces pages ne sont pas d'accord entre elles !

Je découvre alors à ma grande stupéfaction que Bourbaki a donné deux définitions de la limite d'une fonction quand x tend vers a : la limite pointée, qui prend en compte la valeur de f en a si elle existe, et la limite épointée, qui ne la prend pas en compte et qui est la définition universellement utilisée ailleurs que dans l'enseignement français. Que l'existence de la limite d'une fonction puisse dépendre de la valeur de la fonction en un point devrait à mon avis suffire pour comprendre que la limite pointée est une mauvaise notion. Pédagogiquement parlant, c'est une abomination : toutes les limites (à gauche, à droite, aux bornes d'un intervalle ouvert, en l'infini) sont naturellement épointées, sauf les limites en un point de l'ensemble de définition. On introduit donc avec la limite pointée deux cas subtilement différents sans le dire : la limite pointée en un point de l'ensemble de définition (la limite pointée vraiment pointée) et la limite pointée "naturellement épointée". Mathématiquement le théorème choquant énoncé ci-dessus devrait faire douter de l'intérêt de la limite pointée : lorsqu'elle est vraiment pointée et finie, elle ne donne pas d'information utile. De plus ce cas ne se produit que si la fonction est continue en a ! Autrement dit la limite pointée vraiment pointée ne donne une information (la non-continuité) qu'en n'existant pas !

La catastrophe pédagogique apparaît clairement quand on définit la continuité avec la limite pointée. On peut bien sûr faire semblant de donner la même définition que tout le monde :

Déf : f est continue en a ssi la limite de f(x) quand x tend vers a est f(a)

Mais cette définition est une arnaque : avec la limite épointée on fait émerger clairement deux concepts distincts, f(a) d'une part, et la limite de f en a d'autre part, et la continuité est naturellement définie comme le cas où ces deux concepts coïncident, alors que la même définition avec la limite pointée cache le fait que la limite ne peut pas valoir autre chose que f(a) ! Elle devrait donc en toute logique s'écrire :

Déf : f est continue en a ssi la limite de f(x) quand x tend vers a existe et est finie.

Bon, j'arrête le tir, de toute façon tous les bouquins de référence utilisent la version épointée (en particulier Rudin et Spivak, mais aussi Jean-Pierre Marco, et s'il y a bien quelqu'un qui réfléchit à la pédagogie, c'est lui)... tous sauf ceux qui sont encore sous l'influence de Bourbaki et des programmes officiels de prépas en France.

Attention, je ne dis pas que les exceptions terminologiques françaises sont toutes mauvaises. Les définitions de "croissante" et "décroissante" sont par exemple plus cohérentes que les "non-decreasing" et "non-increasing" anglo-saxonnes. Cependant, qu'on le veuille ou non, la langue de la science est aujourd'hui l'anglais, alors à chaque fois que la terminologie française diffère il faut le signaler aux élèves, à moins qu'on ne veuille les enfermer dans des références franco-françaises. La preuve du danger qui guette ici c'est qu'un professeur français peut, en toute bonne foi, énoncer un théorème qui sera considéré comme faux non seulement par les mathématiciens anglo-saxons mais par tous les mathématiciens hors de France, et selon mon expérience par la plupart des mathématiciens français également.

D'une façon générale les terminologies non-standard sont à proscrire dans l'enseignement. Même si on pense que la terminologie standard est déficiente, il faut s'en servir, quitte à attirer l'attention des élèves sur ses défauts, plutôt que de créer artificiellement des quiproquos. Et si, en ayant bien peser le pour et le contre, on décide d'utiliser une terminologie peu commune parce qu'il y a une raison incontournable (ce qui n'est pas le cas ici), il faut absolument le signaler aux élèves, parce que leur rendre intelligible le corpus mathématique disponible à leur niveau doit être la priorité.

MAJ : Je remercie svain et limite pour les deux liens suivants : un texte de Daniel Perrin qui tente de ménager la chèvre et le chou, et un autre de Bertrand Rungaldier qui traite la question probablement dans les termes où elles s'est posée aux rédacteurs des programmes : comment escamoter les difficultés pour que les élèves réussissent les examens sans comprendre le fond de ce qu'on leur enseigne.

Par ailleurs, j'ai réalisé un petit sondage autour de moi auprès d'enseignants du secondaire, de prépa, et de mathématiciens. La plus grande confusion semble régner sur la définition de la limite : seule une minorité a conscience qu'il existe deux définitions en conflit l'une avec l'autre. La majorité des enseignants du secondaire, mais pas la totalité, utilise la définition pointée. En prépa je n'ai pas vu de majorité claire se dégager, et les mathématiciens que j'ai interrogé m'ont tous donné la définition épointée. Bien sûr ce sondage maison n'a pas de valeur scientifique.

Voir les commentaires

L'éléphant N°12

10 Octobre 2015, 12:14pm

Publié par Fabien Besnard

L'éléphant N°12

Il est sorti, et il est très bien, avec notamment un article de Richard Taillet sur la lumière, et une interview de Catherine Kintzler.

Voir les commentaires


4 Octobre 2015, 17:33pm

Publié par Fabien Besnard

J'aurai le plaisir de faire un exposé au séminaire du LPT d'Orsay Jeudi 8/10. Je recopie ci-dessous les infos pratiques et l'abstract.


Jeudi 8 octobre 2015, 14:30, au LPT, 114

On the interplay between noncommutativity and causality.




Noncommutative geometry is based on the observation that geometric notions can be defined in an algebraic way, and that the algebraic definition remains meaningful and gains in generality when the assumption of commutativity is removed. In this talk we will explain how order-theoretic notions can be introduced into this scheme, giving rise to noncommutative ordered spaces. We will show on the simple though important example of almost-commutative manifolds that two causally connected events cannot be arbitrarily close together when the algebra is not commutative. Since, as we will argue, noncommutative ordered spaces can be expected to show up in Lorentzian noncommutative geometry as well as in quantum gravity, this result might have some relevance in both areas. We will start from scratch, give many examples, and compare our framework with another approach, based on Lorentzian spectral triples, which is due to Franco.






Voir les commentaires

Consultation nationale sur le projet de loi sur le numérique

30 Septembre 2015, 18:24pm

Publié par Fabien Besnard

Je relaie ici un message de Frédéric Hélein à propos de cette consultation très importante.

"Chers Collègues,

Une consultation nationale sur le projet de loi sur le numérique a débuté samedi 26 septembre, pour une durée de trois semaines.
Je vous invite à vous informer à ce sujet et à y participer :
Pour participer (voter, commenter, proposer) il suffit pour cela de vous inscrire sur ce site.

L'article 9 intitulé "Libre accès aux publications scientifiques de la recherche publique"
aura un impact CONSIDÉRABLE sur la recherche française.
Il faut saisir cette occasion inédite de donner notre avis et de proposer des amendements, d'autant plus que,
de mon point de vue comme de celui de tous mes collègues qui en ont pris connaissance, ce texte ne donne pas du tout
satisfaction (voir les explications plus bas).

Si vous êtes d'accord avec les explications détaillées ci-dessous, je vous invite donc à voter d'une part contre le texte actuel
(proposé par le gouvernement) de l'article 9 :
et d'autre part à voter pour la proposition suivante, élaborée par la Direction de l'Information Scientifique et Technique du CNRS :
"Une durée d'embargo plus courte, ne pas entraver le TDM (text and data mining) et ne pas interdire une exploitation commerciale"

Quelques explications :

Les publications scientifiques jouent un rôle vital dans la science,
chaque chercheur en est convaincu. Cela, non seulement car elles
constituent un produit essentiel de la recherche, notamment pour les
applications, mais aussi parce qu'elles nourrissent en retour la
recherche fondamentale. L'accès à ces publications est et restera donc
vital pour la science. En outre, les moyens de recherche, de fouille
dans l'immensité de ces données, rendus possibles par leurs
traitements électroniques, sont en train de devenir un des enjeux
cruciaux dans le futur.

La future loi sur le numérique devra, entre autres, fixer les droits
d'utilisation de ces données. Une question qui fait débat est de
décider si un éditeur peut être propriétaire exclusif des droits
d'exploitation et, en particulier, s'il acquiert l'exclusivité des
droits de fouille des données (TDM : Text and Data Mining) sur les
documents et données qu'il publie. S'il en était ainsi en France, cela
empêcherait une utilisation libre et gratuite de connaissances issues
d'une recherche essentiellement financée par des fonds publics. Cela
constituerait un handicap lourd pour la recherche en France, alors que
beaucoup de pays (Allemagne, Canada, Etats-Unis, Royaume-Uni) ont
clairement opté pour une législation interdisant une privatisation des
données nécessaires au TDM. Ainsi le paragraphe qui stipule que "Les
droits d’exploitation sous une forme numérique [...] sont cessibles à
titre exclusif à un éditeur" est en contradiction avec les principes
qui ont été énoncés plus haut.

Cette loi prévoit également de fixer la période d'embargo, le délai
qui suit la publication d'un article durant lequel l'article n'est pas
accessible gratuitement, à un an pour les articles dans les sciences
exactes et deux ans dans les sciences humaines et sociales. Pour les
mêmes raisons que celles évoquées précédemment, ces délais semblent
excessivement longs et constitueraient un handicap pour tout pays qui
s'imposerait de telles règles. Il serait raisonnable de les ramener à
six mois maximum pour les sciences exactes et un an pour les sciences
humaines et sociales, en conformité avec ce qui est préconisé par la
Commission Européenne sur les programmes ERC et H2020.

Enfin l'Article 9 précise également que la "mise à disposition [d'un
article] ne peut donner lieu à aucune exploitation commerciale",
formulation sans doute trop vague, puisqu'elle suggère la possibilité
pour un éditeur d'accaparer les bénéfices économiques qui pourraient
découler d'une découverte scientifique, ce qui, à nouveau,
constituerait un frein aux exploitations des travaux scientifiques.

Autres documents :
* Note de la DIST-CNRS Consultation projet de loi pour une République numérique
* Tribune "Favoriser la libre diffusion de la culture et des savoirs" publiée dans le journal Le Monde (10/9/2015)
Il est toujours temps de devenir signatairehttp://www.cnnumerique.fr/communs/

Bien cordialement
Frédéric Hélein "

Voir les commentaires

Conférence sur la Relativité Générale

13 Septembre 2015, 17:27pm

Publié par Fabien Besnard

Je relaie l'annonce suivante qui semble pouvoir intéresser un large public.

À l'occasion du centième anniversaire de la relativité générale, nous vous été invités à organiser un cycle de conférences à la Bnf.

Nous espérons vous y voir nombreux.

Jean Eisenstaedt et Jean Philippe Uzan.

Les Mécanos de la Générale : Einstein, 100 ans de relativité générale

Bnf, Petit auditorium

Quai François Mauriac Paris 13e

Les mardis à partir du 6 octobre 2015, 18 h 30 – 20 h.

Entrée libre.


mardi 6 octobre 2015, Jürgen Renn, Institut Max-Planck d’histoire des sciences, Berlin,

"La naissance de la théorie de la gravitation d’Einstein"

mardi 13 octobre 2015, Jean E , CNRS/Observatoire de Paris,

"La relativité générale, une théorie longtemps incomprise"

mardi 10 novembre 2015, Dominique, Université de Namur (Belgique), Membre de l’Académie royale des sciences de Belgique,

"Georges Lemaître et la cosmologie relativiste"

mardi 17 novembre 2015, Clifford Will, Université de Floride (États-Unis), Membre de l’Académie nationale des sciences des États-Unis,

"La relativité générale et l’expérience : du système solaire aux trous noirs"

mardi 1er décembre 2015, Jean-Philippe Uzan, CNRS/Institut d’Astrophysique de Paris,

"La cosmologie relativiste aujourd’hui"

mardi 8 décembre 2015, Thibault Damour, Institut des Hautes Études Scientifiques, membre de l’Académie des sciences,

"La relativité générale aujourd’hui, demain et après-demain"


Organisation : Jean Eisenstaedt, (SYRTE) Observatoire de Paris, Jean Philippe Uzan (Iap).

Programme sur http://syrte.obspm.fr/histoire/semin1_histoire.php

Voir les commentaires

Le scandale du bac 2016

6 Juillet 2015, 18:18pm

Publié par Fabien Besnard

Je ne prends pas un grand risque en vous annonçant dès aujourd'hui que les sujets de maths-SVT-Physique-Chimie (rayer les mentions inutiles) de la session 2016 seront beaucoup trop difficiles pour les élèves. Une pétition sur internet sera d'ailleurs lancée, à grand renfort de tweets offusqués.

Je prends pas un grand risque, parce que depuis quelques années chaque millésime voit naître son petit scandale : sujet fuité, sujet de maths "trop dur" ou mal rédigé, noté sur 24. Au cas où vous ne seriez pas au courant, le dernier concerne le sujet de physique, et particulièrement l'exercice 1. (voir ici les sujets et les corrigés)

Cet exercice n'a pourtant rien de difficile, et il est assez choquant de voir des candidats qui semblent sincèrement stupéfaits qu'on puisse leur demander des choses pareilles...

Mais, ainsi que le note le président de l'Union des professeurs de physique-chime, un "fossé abyssal s’est creusé entre les attentes du programme et le niveau moyen des élèves sortant de terminale S".

En fait, il devient de plus en plus difficile de créer des sujets assez enfantins pour que les élèves les réussissent à coup sûr ! Autrement dit, le système commence à se fissurer : on n'arrive plus à cacher la misère !

Et c'est plutôt une bonne nouvelle.

Voir les commentaires

1 2 3 4 5 6 7 8 9 10 20 > >>