RelativKritisch Schwerpunkt: Neutrinos schneller als Tempolimit c0?
Seit ein paar Tagen schlagen ein paar Elementarteilchen, Neutrinos genannt, grosse Wellen in der wissenschaftlichen Community und in der Öffentlichkeit. Neutrinos sind dafür bekannt, recht unauffällige Gesellen zu sein, die sich nur äusserst selten über die Schwache Wechselwirkung bemerkbar machen. Umso heftiger ist der Aufruhr, den diese an sich sehr scheuen Geisterteilchen ausgelöst haben. Sie sollen das seit Albert Einsteins Relativitätstheorien und der darauf aufbauenden modernen Physik geltende kosmische Tempolimit c0 (die Vakuumgeschwindigkeit des Lichts) geknackt haben!
Gemessen haben das die Physikerinnen und Physiker am Oscillation Project with Emulsion tRacking Apparatus (OPERA) im Laboratori Nazionali del Gran Sasso, das im italienischen Bergmassiv des Gran Sasso beheimatet ist und primär nach den allfälligen Neutrino-Oszillationen, hier der in flight Umwandlung dieser Elementarteilchen zwischen Myonneutrinos und Tauneutrinos, suchen. OPERA ist ein Bestandteil des CERN Neutrinos to Gran Sasso-Experiments (CNGS). Die Quelle dieser Teilchen ist ein künstlich erzeugter Neutrinostrahl, der im Super Proton Synchrotron (SPS), u. a. der Vorbeschleuniger des Large Hadron Collider (LHC), der am CERN bei Genf erzeugt und anschliessend in südöstlicher Richtung nach Italien gelenkt wird.
RelativKritisch versucht mit diesem Schwerpunkt, einen Überblick auf die wichtigsten Entwicklungen und spannendsten Diskussionen zu diesem aufregenden Thema zu organisieren.
Den Hype um die überlichtschnellen Neutrinos hatte am Donnerstag, den 22. September 2011, die BBC eingeleitet (Screenshot: Ethan Siegel, der Beitrag ist mit Update vom 23.09. auf den Online-Seiten der BBC abrufbar). Die Story, auch bei nature.com gemeldet (Particles break light-speed limit) verbreitete sich in Windeseile im Web, unter anderem über Associated Press (Roll Over Einstein: Pillar Of Physics Challenged). Und auch die Blogosphäre und in Internetforen schlug das Thema Wellen. Noch am Donnerstag nahm Florian Freistetter den Ball auf und verkündete auf den scienceblogs.de unter dem Titel CERN-Experiment: Sind Neutrinos schneller als das Licht? die Neuigkeit. Zu diesem Zeitpunkt hatte auch Ethan Siegel bereits reagiert und in seinem Blogbeitrag This Extraordinary Claim Requires Extraordinary Evidence! bereits die Achillesferse des Experiments benannt: den im Jahr 1987 gemessenen Neutrinoausstoss der Supernova 1987A, bei der Neutrinos unterschiedlicher Energie aus dem Kollaps des Sterns in guter Übereinstimmung mit den theoretischen Modellen des Supernovaprozesses und dem Tempolimit c0 von irdischen Observatorien detektiert wurden.
Am Freitag zogen schliesslich die deutschsprachigen Medien mit obszön überschlagenden Überschriften nach, z. B. der SPIEGEL, die Sueddeutsche Zeitung, Die Welt oder Die Zeit. Zu diesem Zeitpunkt gab es eine neue Pressemitteilung der Universität Bern, an der Antonio Ereditato, Leiter des OPERA-Projekts, eine Professur für Hochenergiephysik innehat. Die OPERA Collaboration hatte ein preprint ihrer Analyse bei arXiv eingestellt und via Pressemitteilung des CERN angekündigt, ihre Ergebnisse am Nachmittag des 23.09. auf einem Seminar vor den Fachkollegen zu erläutern und um Unterstützung bei der Fehlersuche zu werben. Die Veranstaltung wurde live über das CERN-Webcast übertragen (nachsehbar im Archiv des CERN Document Server). Die redaktionellen Webdienste mehrerer populärer Wissenschaftsmagazine reihten sich in die Berichterstattung ein. So spektrumdirekt.de oder auf wissenschaft.de, dem Online-Dienst von bild der wissenschaft, von Rüdiger Vaas bereits skeptisch ins Bild gerückt.
Auch in den Wissenschaftsblogs wurde versucht, die „OPERA Anomalie“ möglichst fachgerecht aufzufangen. Die Hintergründe und Substanz der OPERA-Messungen haben Jörg Rings (Neutrinos auf der Überholspur), Chad Orzel (Faster Than a Speeding Photon: „Measurement of the neutrino velocity with the OPERA detector in the CNGS beam“) und der physikBlog (Überlichtschnelle Neutrinos) auch möglichst laienverständlich durchleuchtet und beschrieben. Was die OPERA Collaboration getan hat, verdient höchsten Respekt. Nach gründlichsten internen Überprüfungen stellt sie ihre Ergebnisse ins offene Säurebad der Community der Physikerinnen und Physiker, um die letzten Fehlerquellen freizulegen. Das ist Wissenschaft vom Feinsten, wie zum Beispiel Christine Sutton und Corinne Mills auf den Quantum Diaries (da gibt es noch mehr stuff!) die Situation eindringlich ausdeuten.
Andere Blogger versuchen sich bereits in der Auslegung der Physik, wenn es denn nun so wäre, wie das die OPERA-Daten als „Fanal“ an die Wand malen. Martin Bäker räsoniert auf seinem Blog, physikalisch und wissenschaftshistorisch kompetent, über Tachyonen und die Zukunft Einsteins!
Bei anderen überwiegt die Skepsis. Der RT-Spezialist Markus Pössel, auch mehrfach ausgezeichneter Wissenschaftskommunikator, bespricht die OPERA-Ergebnisse nüchtern als eher rhetorische Frage (Überlichtschnelle Neutrinos?) und vergleicht sie konsequent mit der Pioneer-Anomalie. Pössel prägt in seinem Artikel den Begriff „CERN-Neutrino-Anomalie“, der stilprägend werden könnte. Wie Phil Plait, der „Bad Astronomer“, zeigt auch Pössel, dass die notwendige Zusatzannahme, Neutrinos verschiedener Sorten und Energien könnten sich unterschiedlich zum Tempolimit c0 verhalten, nicht besonders überzeugend ist. Ähnlich äussern sich namhafte Physiker, die von Scientific American befragt wurden.
Unabhängig von der beschleunigten Fehlersuche, die das OPERA-Team mit seinem Gang an die Öffentlichkeit eingefordert hat, werden in guter wissenschaftlicher Praxis auch ebenbürtige experimentalphysikalische Installationen versuchen, die OPERA-Daten zu reproduzieren. Für dieses Unternehmen stehen grundsätzlich zwei Anlagen kurzfristig zur Verfügung. Da ist zum einen das long baseline neutrino oscillation experiment „Tokai to Kamioka“ (T2K) in Japan, das seinen beam an den Super-Kamiokande ausrichtet. Und das Fermilab, das mit seinem „Neutrinos at the Main Injector“ (NuMI), vergleichbar mit CERN/OPERA, das „Main Injector Neutrino Oscillation Search“ (MINOS) am Soudan Underground Laboratory mit einem Neutrinobeam versorgt. Bereits im Jahr 2007 veröffentlichte die MINOS Collaboration ein Ergebnis, das ebenfalls eine Überschreitung des Tempolimits durch Neutrinos in Erwägung zog. Die Daten waren aber nicht signifikant und wurden deshalb verworfen.
Das Fermilab hat mittlerweile angekündigt, in vier bis sechs Monaten die Ergebnisse von OPERA überprüfen zu können. Dieser ehrgeizige zeitliche Rahmen wird dadurch möglich, dass die MINOS-Daten noch einmal durchgerechnet werden. Weiter hat das amerikanische Team angekündigt, seine Messreihen neu aufzulegen. Spannende Zeiten!
Die „Neue Physik“, die in diesem Jahr schon so oft propagiert wurde, wird wahrscheinlich unter konservativer Betrachtung auch mit den Ankündigungen des OPERA-Experiments ausbleiben. Erfreulich ist, dass trotz der aktuellen ökonomischen Depression die Kapazitäten vorhanden sind, um diese unerwarteten und spannenden Fragen physikalischer Grundlagenforschung wieder und wieder prüfen zu können. Ermutigend ist auch die kompetent vermittelte Popularisierung dieser aufregenden Ereignisse durch eine Reihe von Wissenschaftlerinnen und Wissenschaftlern, die das Bloggen als gewichtige Form der Wissenschaftkommunikation angenommen haben. Auch wenn diese Ansätze von „open science“ im Rauschen mittelmässiger Spekulationen versanden, findet sich die eine oder andere Perle in den Diskussionen. Auch in diesem speziellen Fall. Andererseits muss man leider auch feststellen, wie systematisch crackpots und Einstein-Gegner diese Diskussionen entern. Es ist allerdings auch äusserst amüsant, wie sie auch an diesem konkreten Projekt scheitern.
RelativKritisch wird an diesem Thema dran bleiben. Unsere Übersicht ist zwangsläufig subjektiv und eingeschränkt. Weitere interessante Diskussionen werden wir im Kommentarbereich verlinken und zur Diskussion stellen.
Update: Weitere Links (u. a. aus dem Kommentarbereich)
- Collider Blog: OPERA not contradicted by SN1987a (23.09.2011)
- A Quantum Diaries Survivor: A Six-Sigma Signal Of Superluminal Neutrinos From Opera! (19.09.2011)
- the reference frame: Italian out-of-tune superluminal neutrino opera (22.09.2011)
- Starts With A Bang: Are we fooling ourselves with faster-than-light neutrinos? (26.09.2011)
- FAZ.net/Caren Hagner: „Der Zeitpunkt der Veröffentlichung war verfrüht“ (29.09.2011)
- Collider Blog: Theories about Superluminal Neutrinos (01.10.2011)
- Die Natur der Naturwissenschaft: Schneller als Licht? (30.09.2011)
- Der Quantenmechaniker Joachim Schulz: Mehr als Licht auf dem Tacho (03.10.2011)
- Los Angeles Times: CERN and colliding theories (04.10.2011)
- Eugenie Samuel Reich: Uhrenfehler auf der Neutrinobahn? (06.10.2011)
- Matt Strassler: Is the OPERA Speedy Neutrino Experiment Self-Contradictory? (06.10.2011)
- Der Quantenmechaniker Joachim Schulz: Überlichtschnelle Neutrinos verlieren Energie (09.10.2011)
- Ronald A.J. van Elburg: Times of Flight between a Source and a Detector observed from a GPS satelite (submitted 12.10.2011)
- Ethan Siegel: Game Over for Faster-Than-Light Neutrinos? (18.10.2011)
- Ethan Siegel: A Test for Neutrinos: Put Up or Shut Up (26.10.2011)
- Diskutiere über den RelativKritisch Schwerpunkt: Neutrinos schneller als Tempolimit c0? mit anderen Lesern im Forum Alpha Centauri!
RelativKritisch E-Edition
Als ePub herunterladen 1055Die Artikel von RelativKritisch gibt es auch als E-Book im ePub-Format zum kostenlosen Download!
Hallo Solkar,
das finde ich gut. Ich habe gerade TSK auf zwei Blogs mal angepingt. Vielleicht schaut er ja selbst vorbei.
Grüsse galileo2609
Moin moin,
zunächst zu den Reaktionen auf die Entdeckung:
Keine bis jetzt, die Caren Hagner habe ich noch nicht kontaktiert.
Fortschritte auf der Suche nach möglichen Fehlern:
Vielleicht liegt der GPS-Referenzpunkt auf einem Hügel und die 140 m Tiefe bezieht sich darauf ? Das heißt, dass der Autor
vergessen hat, dass das Gelände abfallend wäre und damit der Punkt viel näher an der Oberfläche ist ?
Fehlanzeige. Das CERN-Hauptquartier liegt etwa 2 km in WSW-Richtung vom Punkt entfernt. Ich gehe mal davon aus, dass man klugerweise den nächstmöglichen Punkt wählt, um sich von da aus vorzutasten. Spätestens da ist jedenfalls die Möglichkeit vorhanden, eher noch früher und die Höhe ist leider 430-440 m N.N. und reicht bei weitem nicht aus, um die Diskrepanz zu erklären.
Selbst wenn die schwache Möglichkeit besteht, dass der vermessene Zugang auf einem Hügel liegt, um möglichst viel Erde zu bewegen: Mehr als 50 m Höhendifferenz habe ich in der Umgebung nicht gefunden.
Hallo TSK,
schön, dass du zu uns gefunden hast. Da ich den Eindruck gewonnen habe, dass deine Betrachtungen in den anderen Blogs insbesondere durch Parallelthemen zerissen werden oder keine Beachtung finden, war es mir ein Anliegen, deine Aspekte einmal konsistent zur Diskussion zu stellen. Vielleicht gelingt uns das hier.
Grüsse galileo2609
Ich kann gerne die Formeln angeben, mit denen das Ergebnis berechnet wird.
Während die Umrechnung von LLA auf ECEF straightforward ist,
benutze ich für den umgekehrten Weg einen iterativen nichtlinearen Optimierer, den Downhill-Simplex Algorithmus, der
den kartesischen Abstand zwischen den Punkten minimiert (auf Null hin zu).
Dieser iteriert in diesem Fall vier Punkte auf die Lösung zu und ist extrem robust, weil keine Nebenminima existieren. Weiterer Vorteil: Durch vier Punkte in der Umgebung sehe ich auch sofort, welche Stellen signifikant ist, was bei einem direkten Löser nicht
so einfach zu bestimmen ist und ich kann die Genauigkeit optimal einstellen.
Die angegebenen Werte in den Posts haben übrigens einen Abstand von der korrekten Lösung von weniger als einem Dezimeter.
Fehler bei der Berechnung fallen übrigens sofort auf, man bekommt nämlich absolut unmögliche Höhenwerte.
Hallo TSK!
Schön, dass Du hier bist!
Ich find’s gut, dass Du die Verortung mal derart genau überprüfen willst.
—
Erstmal zur Numerik am Beispiel „Standort CERN“:
Ich hab mit
C++ (unter Verwendung des „double“-Datentyps und des „cmath“-headers),
nämlich
g++ (Debian 4.3.2-1.1) 4.3.2
auf
Linux 2.6.26 SMP x86_64 GNU/Linux
die Daten aus [CCM+11], S.6
– einmal von ECEF nach Geodätisch
– und von da zurück mittels Iteration von Bowrings Gleichung
gerechnet.
T-40-S-CERN ECEF
(XYZ): 4394369.327 m 467747.795 m 4584236.112 m
ECEF->Geodesic
(ϕλh): 46.24243438 ° 6.075830318 ° 429.6828286 m
Geodesic->ECEF Bowring via 10 step Newton
(XYZ): 4394369.327 m 467747.795 m 4584236.112 m
(Anzeigegenauigkeit gesetzt mit std::cout.precision(10))
Das passt also numerisch und die geodätischen Werte stimmen auch mit den von Dir errechneten Werten gut überein.
—
Aber lass uns bitte erstmal einen anderen Punkt bedenken:
Auf S. 26 von [Els01] ist ein Höhenprofil des betreffenden Geländes der CERN zu sehen.
Auf [OPE11], S. 10 wird die Entfernung von 730534.61 ± 0.20 m, die auch auf S.6 v. [CCM+11] angegeben wird, als Distanz
bezeichnet.
D.h., die 140 m Tiefe aus [OPE11], S. 4 sind dort gar nicht anzusetzen; das Target liegt vielmehr gem. S. 26 von [Els01] auf ~360 Höhenmetern, somit grob geschätzt ca 60m unter der Oberfläche; das korreliert auch gut mit [OPE11], S. 4.
Beste Grüsse,
Solkar
[CCM+11] G. Colosimo, M. Crespi, A. Mazzoni, M. Jones and D. Missiaen, “Determination of the CNGS global geodesy”, OPERA public note 132 (2011)
Available from World Wide Web: http://operaweb.lngs.infn.it/Opera/publicnotes/note132.pdf
[Els01] K Elsener. CNGS – CERN Neutrinos to Gran Sasso. Sep 2001.
Available from World Wide Web: http://proj-cngs.web.cern.ch/proj-cngs/PDF_files/CERNguides200901.PDF.
[OPE11] OPERA Collaboration. Measurement of the neutrino velocity with the OPERA detector in the CNGS beam. ArXiv e-prints, September 2011.
Available from World Wide Web: http://arxiv.org/abs/1109.4897v1.
Corrigendum
Quark…
So
– einmal von ECEF nach Geodätisch mittels Iteration von Bowrings Gleichung
– und von da zurück gerechnet.
T-40-S-CERN ECEF
(XYZ): 4394369.327 m 467747.795 m 4584236.112 m
ECEF->Geodesic Bowring via 10 step Newton
(ϕλh): 46.24243438 ° 6.075830318 ° 429.6828286 m
Geodesic->ECEF
(XYZ): 4394369.327 m 467747.795 m 4584236.112 m
herum natürlich.
@alle:
In meinem Beitrag #30 vom 3.10.11 habe ich irrtümlich angenommen, dass die sampling rate des Detektors 150 ns beträgt. Ich hatte mich da von der graphischen Darstellung täuschen lassen.
Ein peinlicher Fehler meinerseits also, den ich nicht so stehen lassen will.
Die sampling rate beträgt tatsächlich 10 ns, sodass meine Einwände bezüglich der Datenauswertung entfallen.
Auch ein Korrelationsverfahren kann (bei 10 ns) kein genaueres Ergebnis liefern als das im paper beschriebene Maximum Likelihood Verfahren, denn beide Methoden unterscheiden sich m.E. kaum, was die erreichbare Genauigkeit betrifft.
Nachdem ich mich also etwas gründlicher mit dem Thema befasst und dadurch zu einem besseren Verständnis gelangt bin, glaube ich nicht, dass die 60 ns Zeitdifferenz durch einen Fehler bei der Signalauswertung zustande kamen.
Vielen Dank für die Korrektur haereticus.
Die heißeste Spur ist damit IMO die veröffentliche Kritik bezüglich der gravitativen Zeitdilatation. Ist die Bahn der Neutrinos genau genug bekannt, kann man mit den Werkzeugen der ART auch die Geschwindigkeitsverteilung entlang der Bahn ausrechnen, bzw. abschätzen.
Bevor man diese Rechnung macht (wo sicher auch schon kluge Leute dransitzen) sollte man noch abwarten, was die GPS-Gruppe (Solkar, TSK) findet. Mich würde dabei auch interessieren, ob bei GPS der Brechungsindex der Luftatmoshäre berücksichtigt wurde. Die Signale legen im Allgemeinen ja unterschiedlich lange Wege in der Luft zurück und nachdem die Lichtgeschwindigkeit in Luft etwas geringer als im Vakuum ist bedingt das Laufzeitunterschiede. Ich kenne mich aber mit der GPS-Technologie nicht gut genug aus, um die Konsequenzen für die Meßgenauigkeit abschätzen zu können.
Gruß B.
Der zu errechnende Abstand ist ja Norm des Differenzvektors zwischen T-40-S-CERN (in EFEC) und
/*“A1-9999″,*/ 4582167.465, 1106521.805, 4283602.714 .
Bei
/*“T-40-S-CERN“,*/ 4394369.327, 467747.795, 4584236.112
ergibt das dann ja jene
730534.61 m.
Zieht man von den obigen
(ϕλh): 46.24243438 ° 6.075830318 ° 429.6828286 m
probehalber mal 70 m ab:
(ϕλh‘): 46.24243438 ° 6.075830318 ° 359.6828286 m
erhält man
(XYZ‘): 4394321.186 m 467742.6708 m 4584185.553 m
und als Abstand zu A1-9999 dann
730530.6631 m ,
also eine um rund 4 m kürzere baseline.
Barney | 8. Oktober 2011, 14:16 hat geschrieben:
Das Problem ist zumindest bekannt: http://de.wikipedia.org/wiki/GPS-Technik#Ionosph.C3.A4renkorrektur.
Hallo Barney,
der von Dir in #109 velinkte WIKI-Beitrag ist ein guter Tip. Danke.
Bezüglich der angesprochenen athmosphärischen Einflüsse müsste man dann wohl annehmen, dass in jedem jedem der 4 Signalkanäle sowohl systematische als auch zufällige Abweichungen der Signalausbreitungsgeschwindigkeit auftreten, wobei die zufälligen statistisch unabhängig voneinander sind.
Daher dürfte man, streng genommen, bei der Lösung des Gleichungssystems nicht die geschlossene Lösung verwenden, sondern doch ein Iterationsverfahren, wobei aber für jeden Kanal i ein entsprechend von c abweichender Wert c(i)<c einzusetzen wäre.
Ob das tatsächlich so gehandhabt wird, entzieht sich meiner bescheidenen Kenntnis über das GPS-System.
Grüsse haereticus
So langsam geht es in die richtige Richtung. Der noch zu findende Messfehler ist unausweichlich:
(09.10.2011)
Grüsse galileo2609
Moin,
Solkars Einwand ist berechtigt, ich habe mich vom Schaubild Fig. 2 irreführen lassen. Es wurde gesagt: „The proton beam time-structure is accurately measured by a fast Beam Current
Transformer (BCT) detector [11] (BFCTI400344) located (743.391 ± 0.002) m upstream of the
centre of the graphite target.“
Dieser BCT taucht gemeinerweise überhaupt nicht in den Schaubildern auf. Also habe ich nach einem Graphittarget gesucht und sah das fette C (Kohlenstoff = Graphit) in einem Eisen-(Fe)Block beim Hadrontarget in Fig. 2 und habe gedacht, dies wäre das Ziel, vor allem, da wir von *Neutrino*geschwindigkeit
reden. Dieses Hadrontarget am Ende des Tunnels würde in der Tiefe von 140 m liegen.
Was also in Wirklichkeit gemessen wurde, war die kombinierte Geschwindigkeit von Protonen + Pionen/Kaonen + Neutrinos. Das wird dann in einem Nebensatz auf Seite 8 erwähnt.
Daß das wegen der relativistischen Geschwindigkeiten der Nicht-Neutrinos und der langen Strecke der Neutrinos wenig ausmacht, glaube ich gerne, es wurde jedoch meiner Meinung nach zu wenig
herausgestellt.
Die Targetposition stimmt tatsächlich mit dem Bild hier
http://proj-cngs.web.cern.ch/proj-cngs/Download/GDFIG6/fig6.jpg
sehr gut überein.
Mehr zum Aufbau des CNGS findet man hier:
http://proj-cngs.web.cern.ch/proj-cngs/Download/CNGSDGVE/cngsdgve.pdf
Darin steht, dass der Proton-Beam Tunnel 590 m lang ist, im Originalpaper steht der Detektor 743 m vor dem Target. Hier
http://indico.cern.ch/conferenceDisplay.py?confId=155620
sieht man dann tatsächlich die Position des Detektors
BFCTI400344.
Die Verteilung des Protonenstrahls und der gemessenen Neutrinos zeigt dieselbe Länge des Zeitintervalls, es scheint sich also tatsächlich um die Protonen vom SPS zu handeln.
Eine Idee:
Der SPS-Beschleuniger ist kreisförmig und wenn man etwa 200-300 m zurückgeht, dann zeigt der Bogen des Beschleunigers etwa in Richtung OPERA. Obwohl der Tunnel Ultrahochvakuum hat, sind doch immer noch Teilchen da, die prinzipiell mittels Proton-Proton Kollision Pionen und Kaonen mit Neutrinozerfall erzeugen könnten ?
Da die gefundenen Neutrinos im Verhältnis zu den verwendeten Protonen sehr, sehr wenig sind (Verhältnis laut Ethan Siegel: 1: 10^14) frage ich mich, ob man vielleicht auch (natürlich wesentlich weniger) Neutrinos mit der Protonenverteilung detektieren würde, wann man gar keine Neutrinos ins Target laufen läßt.
Die gemessenen Werte von OPERA wären dann eine Überlagerung aller von den Teilchenbeschleuniger und Target erzeugten Neutrinos, sie hätten die notwendige Länge des Zeitintervalls, aber die vom Bogen des Teilchenbeschleunigers erzeugten schieben die Zeitmessung nach vorne.
Selbst wenn es nur <70 m Fehler bei der Höhenverortung, resultierend in einer <4 m kürzeren baseline, wären, so läge das dennoch um eine Grössenordung über der angenommenen Toleranz von ± 0.20 m.
Man sollte sich diese "geodesic survey campaings" auch mal bildlich vorstellen:
Da wurden iwelche "pillars" für's GPS gesetzt und das Team, das das machte, hatte den Eingang zum vertikalen PGCN-Zugngssschacht dabei wortwörtlich "in Sichtweite" – es ist also nicht plausibel anzunehmen, dass man schlicht "vergessen" hätte, dass der Anlagenstandort unterirdisch ist.
Für plausibler halte ich Fehler bei der Transformation zwischen den Referenzsystemen und/oder Koordinatendarstellungen; wir haben nämlich derer viele im Kalkül, z:B.:
– ITRF97, ITRF2000 und ETRF2000
– GRS 1980, WGS1984
– ECEF/geodätisch/ENU/NED
(jeweils zzgl ggf älteren und neueren Versionen)
und dann noch das lokale CERN Koordinatensystem (CCS), dessen genaue Spezifikation ich bislang leider nicht finden konnte.
Das heisst natürlich nicht, dass jeweils alle System in Ansatz gebracht worden wären, aber da das CERN selbst über 50 Jahre alt, stellt sich schon die Frage, welche Ortsdaten und betreffende Algorithmen ingesamt in die Kalkulationen eingingen.
Auf jeden Fall sind augenscheinliche 60-70 m Höhenabweichung definitiv zuviel, als dass man deren Zustandekommen nicht iwie nachgehen müsste.
Die OPERA-Messungen weisen, unabhängig von möglichen Zerfallstheorien, auf die Ausbreitungt einer Wirkung, bzw. eines Signales, mit Überlichtgeschwindigkeit hin. Das widerspricht der gängigen Auffassung von der Grenzgeschwindigkeit c.
Spekulationen über die Eigenschaften der Neutrinos, wie von Matt Strassler, sind zur Bewertung wichtig und hilfreich, können aber dennoch das messtechnische Resultat v>c nicht aus der Welt schaffen.
Somit ist es auch m.E. vorrangig, die Messtechnik des Experiments auf den Prüfstand zu stellen, bis Klarheit eintritt.
#113 | Solkar | 10. Oktober 2011, 15:21
Gefunden:
https://edms.cern.ch/file/107981/1/cerndatums.pdf
Endlich!
Irgendwo musste es doch zu finden sein… 😀
Übrigens: Seht euch die Seite 20 von
http://proj-cngs.web.cern.ch/proj-cngs/Download/CNGSDGVE/cngsdgve.pdf
an. Vergrößern und den Targetpunkt anschauen. Dieser liegt mitten
auf der Straße.
Google Earth starten und die Koordinate des neu vermessenen Targetpunktes eingeben. Diese befindet sich 40 m weiter östlich.
Das ist natürlich mit Vorsicht zu genießen, weil die Karte in der Planungsphase 2000 entstand und vielleicht auch nicht viel Rücksicht auf Genauigkeit der Karte gelegt wurde.
Noch größer sind die Unstimmigkeiten bei Grafik 11: Sie zeigt einen Höhenunterschied des Access-Tunnels vom Start beim SPS
bis zum Target von etwa 40 m. Laut Zitat von Seite 19 hat dieser Tunnel eine „general slope“, also eine durchschnittliche Steigung von 2,2 %.
2,2 % bei 769 m (der Höhenunterschied ist zu gering, um die horizontale Differenz wesentlich zu beeinflussen) macht nach Adam
Riese 15,4 m.
Nehmen wir jedoch 2,2 *Grad* an, dann erhalten wir 29,5 m Unterschied, was ungefähr hinkommen würde.
Das Target befindet sich laut Grafik etwa 60 m unter der Erde, laut GPS + Korrektur maximal 45 m unter der Erde.
Natürlich kann das alles einfach Ungenauigkeit auf Seiten der Grafik sein, weil man nur eine Übersichtskarte erstellen wollte.
Unwohl fühle ich mich dabei aber schon….
@Solkar: Eine Ahnung, wo man die Koordinaten der einzelnen Punkte herbekommen kann ?
@TSK
Hallo!
#116 | TSK | 10. Oktober 2011, 23:55
Vmtl. von den Vermessungs/Katasterämtern:
– des Canton Ferney-Voltaire (Commune Prévessin-Moëns, Commune Saint-Genis-Pouilly) resp der Communauté de communes Pays-de-Gex
– und demjenigen der République et Canton de Genève.
—
Allerdings sollte man imo den Aufwand in vertretbarem Rahmen halten:
– Du hattest eine Diskrepanz bei den Höhenangaben entdeckt und afaik auch schon an die Projektteams weitergeleitet
– Deine Berechnung scheint zumindest so weit korrekt zu sein wie die Formeln aus Wikipedia; da ich das ferner „hin- und zurück“ gegengerechnet habe, müssten sich etwaige Fehler bei Wiki schon gegenseitig genau aufheben; das ist sehr unwahrscheinlich.
(Ich hatte es zudem gänzlich unabhängig von Deiner Implementierung nachgerechnet; dass sich dabei auf Anhieb ein solch exzellenter Fit einstellte, spricht für die Richtigkeit Deiner Berechnung)
Herauszufinden, ob es nun 40 m, 70 m oder 140 m sind (oder doch, aus iwelchen gut versteckten Gründen, halt doch 0 m) ist imo letztlich eine Aufgabe der Projektteams in Genf und Gran Sasso.
Beste Grüsse,
Solkar
Moment mal…
Die ganze Umrechnerei ECEF->geodätisch bezieht sich ja denknotwendig auf den Referenzellipsoid und nicht auf den Geoid.
Auf S. 178 v. [MMW02] findet man Fig.5 mit Höhenlinien für Geoid-Korrekturen; ~+50 m (Die Abweichungen ggü neueren Vermessungen, um die es eigentlich geht, erstmal ausser Ansatz gelassen).
D.h, dass die geodätischen Koordinaten, die man mittels der Bowring-Formel aus den ECEF errechnet, am Standort CERN um ~50 m zu gross sind, wenn NN, wie imo üblich, in Bezug auf den Geoid angegeben wird.
[MMW02] M. Jones, M. Mayoud and A. Wiart,
Geodetic Parameterisation of the CNGS Project,
contribution to 7th International Workshop on Accelerator Alignment, 2002
Available from World Wide Web: http://proj-cngs.web.cern.ch/proj-cngs/PDF_files/MJone02.pdf
Heute gibt es einen interessanten Ansatz auf dem Blog von arXiv: Faster-Than-Light Neutrino Puzzle Claimed Solved by Special Relativity:
Das zugehörige paper auf arXiv:
Grüsse galileo2609
Der relativ abwertende Beitrag von Carlo R. Contaldi zum Thema
„The OPERA neutrino velocity result and the synchronization of clocks“ vom
30. Sept. 2011:
https://docs.google.com/viewer?url=http://arxiv.org/PS_cache/arxiv/pdf/1109/1109.6160v2.pdf&embedded=true
war für mich Anlass genug, eine stark vereinfachte Modellrechnung durchzuführen um selber ein Gefühl dafür zu bekommen, wie problembehaftet die Uhren-Synchronisation eigentlich sein könnte.
So habe ich mir einmal den durch die Differenz der Gravitationspotentiale angegebenen Term von Contaldis dt-Rechnung angesehen, der den Hauptanteil (dt~30 ns) der von ihm errechneten positiven dt-Abweichung darstellt.
Die beiden anderen Terme lasse ich aussen vor, da sie relativ klein dagegen sind.
Wenn man, wie Contaldi es offenbar tat, V=-G*M/r für beide Orte (CERN und LNGS), natürlich mit entsprechend verschiedenen r-Werten ansetzt, nimmt man implizit an, dass sie beide über dem Geoid liegen.
Dann aber können sich aufgrund der geodätischen Gegebenheiten offenbar nur positive dt einstellen.
Es wurde aber dt~-60 ns gemessen! Wie könnte also der negative Wert zustande gekommen sein?
Lägen z.B. beide Orte unter dem Geoid, so gälte für sie V=-G*M*r^2/RG^3, wobei RG der ‚lokale Radius des Geoids‘ am jeweiligen Ort ist. Dann ergäbe sich tatsächlich ein negatives dt.
Auch im Falle, wenn der tiefer liegende der Orte unter dem Geoid-Radius und der andere darüber läge, könnten sich in gewissenen Fällen negative dt-Werte ergeben.
Vielleicht lohnt es sich doch, das Szenario noch einmal zu überprüfen.
Die von Contendi offenbar spekulativ angenommene Zeitspanne von 4 Tagen bis zur Synchronisation im LNGS ist natürlich entscheidend für die Größe der negativen Abweichung von dt.
Ich bin mir dessen bewusst, dass die ganze Sache in Wirklichkeit sehr komplex ist und bin deshalb weit davon entfernt, eigene Behauptungen aufzustellen.
Dennoch wollte ich auf diese Möglichkeit zur Erklärung negativer dt-Werte hinweisen, weil die Sache zu Zeit wohl auch ‚dumme Einwände‘ ertragen muss, um ja nichts zu übersehen.
Hallo haereticus,
Gangunterschiede von Uhren aufgrund eines unterschiedlichen Gravitationspotentials sind meiner Meinung nach viel zu gering, als dass sie den gemessenen Effekt erklären könnten. Beispielsweise „tickt“ eine GPS-Atomuhr weniger als 1.0e-9 mal schneller als eine Atomuhr auf der Erde. Der beobachtete Effekt liegt aber in der Größenordnung von 18/730.000 etwa gleich 2.5e-5 und ist damit deutlich größer.
Gruß B.
Hallo Barney,
ich hatte ja nur den Beitrag von Contaldi näher betrachtet und ein bisschen auf
von ihm unbeachtete Möglichkeiten hingewiesen.
Contaldis hohe positiven dt-Werte ergeben sich aus einer Integration der Abweichungen über 4 Tage. Das war seine Annahme.
Hätte Contaldi nur 1 Stunde angenommen, wäre die errechnete Abweichung nur 1/96-tel so groß.
Den Zeitraum von 4 Tagen habe ich bei meiner groben Überschlagsrechnung zum Vergleich genommen und folglich dabei ähnlich hohe negative dt-Werte errechnet, falls die geodätischen Daten unter dem Geoid lägen.
Diese Betrachtung hat also nichts mit den Gangunterschieden einer GPS-Uhr und einer Atomuhr auf der Erde zu tun.
Grüsse haereticus
Regarding
#119 | galileo2609 | 14. Oktober 2011, 19:04
About [vE11v1]:
It’s somewhat unfortunate for discussing [vE11] that the author deviated from the usual definition of „γ“ as Lorentz-factor
(S1)
but declared
[vE11v1], below eq(1)
thus „inverted“ the usual formalism. To avoid confusion I propose renaming the „γ“ used the [vE11v1] meaning to und preserving the usual meaning of an unsubscripted „γ“, thus
(S2)
Let, furthermore, denote frames of reference and let be of +2-signature, thus and .
Let suffixes „b“ and „s“ be shorthands for „baseline“ and „satellite“.
—
In [vE11v1] the author uses with different subscripts.
What this that meant to mean?
– The usual meaning of „“ in SR is „proper time“. If that is meant, subscripting it would however, be pointless, because the relation
(S3)
holds, thus proper time is a Lorentz scalar, thus invariant under Lorentz transformations
(S4),
so there would be no sense in subscripting „proper time“ according to reference frames.
– If „“ , though totally unconventional, was meant to denote „coordinate time“ (usually symbolized by , respectively )
the leftmost part of [vE11], eq.(3)
would, in more conventional diction look like (withour loss of generality assuming a „x-only“-boost)
(S5).
yielding
(S6).
But
(S7) (*)
yields
(S8),
which is, beside other obvious differences, „x“-dependent, contrary to the left side of (S6).
—
I will contact Dr. van Elburg and invite him to come here and discuss these topics.
Best regards,
Holger
(*) Pls find the matrix for boosts in x.directions e.g. here
http://en.wikipedia.org/wiki/Lorentz_transformation#Boost_in_x.2C_y_or_z_directions
[vE11v1] Ronald A. J. van Elburg. Times of Flight between a Source and a Detector observed from a GPS satelite. ArXiv e-prints, October 2011.
URL http://arxiv.org/abs/1110.2685v1.
http://www.amaldi9.org/abstracts/354/Amaldi2011_Poster.pdf hat das Labor eine
Höhe von 962 m über N.N. Großzügigerweise zeigt das Paper in der Grafik 5 die Geoidkorrektur von 48 m an, d.h. die Höhe beträgt dann 1010 m, was hervorragend zum errechneten Wert von 1012.33 m paßt. Genf hat eine Höhe von etwa 400 m über N.N (375 am See) und 425 an der bezeichneten Stelle.
An den Koordinaten beträgt laut http://www.unavco.org/community_science/science-support/geoid/geoid.html die Korrektur 49.833 m und der Höhenwert von 429 m.
Damit würde die Quelle etwa 45 m unter der Erde liegen.
/////////////////////////////////////////////////
Ich habe auch das Paper von Mark Jones über die Vermessung gefunden und dieses mehrfache Umrechnen über verschiedenene Systeme (CERN-CCS, CERN-Geoid CGRF und WGS84/ITRF-97
halte ich für eine mögliche Fehlerquelle.
Ich werde Mark Jones mal anfragen. Gibt es so etwas wie FOI Requests für das CERN ? Auf der Webseite habe ich zumindest nichts ergooglen können
Corrigendum for my #123
Pls scratch
Pls put
(„Upper indices got up-to-down“, so those are column vectors already.)
————————————
@TSK
Lass bitte mal eine Milchmädchenrenung machen:
– aus ECEF->geodätisch erhält man ~430 Höhenmeter bezogen auf den Ellipsoid.
– -=50 m für Ellipsoid/Geoid Korrekturen
430 m – 50 m = 380 m.
Nach [Els01]/S.26 zu urteilen, liegt das Target bei ~360-370 Höhenmetern.
Also blieben jetzt schlimmstenfalls noch 20 m Höhenabweichung,
T-40-S-CERN ECEF
(XYZ): 4394369.327 m 467747.795 m 4584236.112 m
ECEF->Geodesic Bowring ECEF via 10 step Newton
(ϕλh): 46.24243438 ° 6.075830318 ° 429.6828286 m
Distance to A1-9999: 730534.61 m
T-40-S-CERN Geodesic -=20 m
(ϕλh): 46.24243438 ° 6.075830318 ° 409.6828286 m
T-40-S-CERN ECEF adjusted
(XYZ): 4394355.573 m 467746.3309 m 4584221.667 m
Distance to A1-9999: 730533.4817 m
was einer Abweichung der baseline von <1.20 m entspräche. Das wäre zwar immer noch oberhalb der angegebenen Genauigkeit von ± 0.20 m, würde aber bestenfalls nur für 10% des errechneten (v-c)/c genügen.
—
Was mich mal reizen würde, wäre, die Verortung in lokalen CCS-Koordinaten gegenzurechnen.
Mittlerweile weiss ich zwar, dass der Origin des CCS im Zentrum des alten "PS" liegt und dass dort in gon
– @galileo: "Neugrad“ 😉 –
gerechnet wird, aber weder die CCS-Koordinaten des SPS (noch anderer Apparate, an denen man hätte „entlangintegrieren“ können) habe ich bislang finden können.
Grüsse,
Holger
[Els01] K Elsener. CNGS – CERN Neutrinos to Gran Sasso. Sep 2001.
Available from World Wide Web: http://proj-cngs.web.cern.ch/proj-cngs/PDF_files/CERNguides200901.PDF.
This
#123 | Solkar | 16. Oktober 2011, 22:06
has been a misconception of mine; that „x“ could indeed be further simplified as one can take from Assis‘ approach here:
http://www.technologyreview.com/blog/arxiv/27260/#comment-237314
Based on his findings Assis points out other possible flaws of [vE11v1]; his comments are interesting reading.
@all:
Zum Thema Zeitmessung erscheint mir auch folgender Beitrag
http://arxiv.org/ftp/arxiv/papers/1110/1110.0595.pdf
interessant zu sein.
Ich habe vor, demnächst eine Monte-Carlo Simulation bzgl. der
Pulsdetektion zu programmieren und fühle mich gerade bei meinen
Annahmen zur Protonen-PDF auf schwankendem Grund.
Als ich nun im o.a. Artikel von einem Tiefpassfilter von 8 MHz las,
kamen insbesondere meine schon ad acta gelegten Bedenken wieder auf.
Die mir zugänglichen Informationen sind halt spärlich und mit
Vorsicht zu bewerten.
So kann man wohl ungestraft ein bisschen herumspielen,
was ja auch seine Reize hat.
Noch ist ja alles offen.
haereticus
Hallo zusammen,
lesenswert: A search for the analogue to Cherenkov radiation by high energy neutrinos at superluminal speeds in ICARUS
Freundliche Grüsse, Ralf
Hallo zusammen,
vielleicht für den stillen Mitleser eine kleine Erläuterung: Bislang kannte man in der Frage nach den Neutrino-Geschwindigkeiten nur zwei Experimente, die als präzise bezeichnet wurden, nämlich jenes vom OPERA-Experiment, bei dem eine geringfügige Überlichtgeschwindigkeit gemessen wurde (5*10^(-5) ) sowie die Supernova 1987A, bei der keine Überlichtgeschwindigkeit gemessen wurde (< 4*10^(-9) ).
Im vorliegenden Bericht wurden nun experimentelle Daten vom Vorjahr unter diesem Gesichtspunkt erneut ausgewertet und man erhält eine Schranke < 1.4*10^(-8), welche also nicht das Ergebnis des OPERA-Experimentes stützt.
Freundliche Grüsse, Ralf
van Elburgs Ankündigung, die OPERA-Anomalie aufgeklärt zu haben, war noch nicht das Gelbe vom Ei. Kaum hat sich diese Welle verzogen, gibt es neue Daten von ICARUS (wie Ralf schon verlinkte). Die Fakten mit Erläuterungen bei Ethan Siegel: Game Over for Faster-Than-Light Neutrinos?.
wg. #130 | galileo2609 | 21. Oktober 2011, 20:36
http://www.heise.de/newsticker/meldung/Wirbel-um-Fehler-bei-den-ueberschnellen-Neutrinos-1362506.html
😀
Das sieht in der Tat auf den ersten Blick so aus und darauf bin ich zunächst reingefallen.
Wenn man das aber weiter durchrechnet, sieht man (siehe die Verweise auf die Beiträge des „technologiereview“-Users „Assis“ in meiner #126) dass dahinter doch eine Lorentz-Trafo der Koordinatenzeit und keine Galileo-Trafo steckt.
Warum Dr. van Elburg das allerdings ausgerechnet mit „τ“ (tau) bezeichnet hat, was ja üblicherweise als Symbol für (invariante) „proper time“ genutzt wird, wird wohl sein Geheimnis bleiben.
Unter
http://news.sciencemag.org/scienceinsider/2011/10/faster-than-light-result-to-be.html?ref=hp
vom 21.Oktober findet sich folgendes:
Eine verschliffene Protonen-PDF (wenn man davon ausgehen darf, dass sie wirklich verschliffen ist), war und ist auch mir als Fehlerquelle suspekt, da dann der statistische Rückschluss entsprechend verfälscht wird.
Sollte es stimmen, dass die o.a. Messungen ausgeführt werden, erwarte ich, dass keine Überlichtgeschwindigkeit dabei festgestellt werden wird.
haereticus
Es tut sich was bei OPERA. Um systematische Fehler einzugrenzen, werden in der nächsten Zeit dichtere Teilchenbündel in kürzeren Pulsen, als sie den bisherigen Messungen zugrunde lagen, vom CERN zum Gran Sasso geschickt.
Jörg Rings und Ethan Siegel haben die Story und die Fakten dazu. Das wird spannend!
Grüsse galileo2609
@alle:
Falls die Protonen-PDF wirklich mit einer Grenzfrequenz von 8 MHz tiefpassgefiltert ist, wird auch die Verkleinerung der Pulsbreite keine Klärung herbeiführen können.
In diesem Falle bleibt nämlich nach wie vor die entsprechende Zeitkonstante von 125 ns wirksam.
Diese bewirkt nämlich, dass der Erwartungswert des Emissionszeitpunktes der Neutrinos um 60.25 ns zu groß in die Berechnungen eingeht, egal, welche Art des statistischen Rückschlusses man anwendet.
Das wäre dann auch eine plausible Erklärung und Entzauberung der so gesehenen ‚Überlichtgeschwindigkeit‘. Eigentlich eine Trivialität, die man weiter nicht zu belegen bräuchte, falls tatsächlich mit einer tiefpassgefiltereten PDF gerechnet wurde.
Für Mitleser dieses Blogs, die gerne Formeln sehen, will ich im folgenden gerne o.E.d.A. den Fall einer statistisch gleichverteilten PDF, die ‚digital verschliffen‘ wird, darstellen.
(Plausible andere Tiefpass-Filtermodelle führen mit einem etwas komplexeren ‚Formelkram‘ zum gleichen Ergebnis, was ich aber hier nicht näher ausführen will.)
sei der Emissionszeitpunkt eines Neutrinos.
sei das Integrationsintervall des ‚digitalen Filters‘.
sei der Startzeitpunkt des Neutrino-Pulses.
sei der Endzeitpunkt des Neutrino-Pulses.
Dann ist die Wahrscheinlichkeitsdichteverteilung (Neutrino-PDF) des Emissionszeitpunktes:
Der Erwartungswert des Neutrino-Emissionszeitpunktes ist dann:
Die gefilterte Protonen-PDF ist aber:
Der der dazugehörige, verfälschte Erwartungswert ergibt dann den einen entsprechend zu großen Wert für den Neutrino-Emissionszeitpunkt:
Dieser Wert ist, unabhängig von der Pulsbreite, um den halben Betrag der Filter-Zeitkonstante zu groß.
Setzt man
zu 125 ns an, erhält man also den o.a. Wert von einer Laufzeitdifferenz von -60.25 ns, welcher in augenfälliger Weise dem CERN-Ergebnis entspricht.
Falls die Protonen-PDF tatsächlich mit 8 MHz tiefpassgefiltert ist, muss man man also nur zu den bislang erhaltenen Ergebnissen für die Laufzeit der Neutrinos 60.25 ns addieren und die Sache ist im Lot.
All das gilt aber, wie gesagt, nur unter der Annahme, dass die Protonen-PDF, auf die zurückgeschlossen wird, mit 8 MHz tiefpassgefiltert ist!
haereticus
zu meinem Beitrag #134:
Ich korrigiere:
Statt 60.25 ns sind es natürlich 62.5 ns, die zu addieren sind.
Hallo haereticus!
Kleine Anmerkung:
Soll die erste Intervallabbildung in Deiner #134 nicht eher so
aussehen?
Grüsse,
S.
Hallo Solkar!
Ja, Du hast recht!
Danke, dass Du mich darauf aufmerksam machst.
Es ist schön zu sehen, dass sich in diesem Blog noch kompetente
und unvoreingenommene Menschen, wie Du, einbringen.
Grüsse haereticus
N.B.:
Das verkehrte Vorzeichen war aber nur ein Lapsus, der mit der Sache nichts zu tun hat, und dafür lasse ich mich gerne korrigieren!
Hallo zusammen,
bezüglich #125 bin ich gebeten worden, folgende Quelle aus dem Jahre 2001 zu nennen: Determination du gisement et de la pente entre le CERN et le site des Gran Sasso von Aude Wiart.
Die Darstellungen und Streckenangaben aus 2001 und 2011 weisen Abweichungen um einige Meter auf. Zudem gibt es in der Tabelle auf der letzten Seite bezugssystemabhängig grössere Unterschiede in den Streckenangaben.
Ich habe mir das ganze aber nicht näher angeschaut.
Freundliche Grüsse, Ralf
Der korrekte Link von Ralf muss lauten:
https://edms.cern.ch/file/385689/1/gisGranSasso.pdf
<>
Oha !
Will derjenige, der die Quelle genannt hat, nicht erkannt werden ?
Am Ende findet sich eine Tabelle, bei der sich bei Verwendung des cartesischen WGS84 eine Verkürzung der Strecke von 70 (!) m ergibt.
Während sich die Koordinaten beim Umstieg auf ein anderes System sicherlich ändern können, darf das bei der Distanz im Rahmen der Fehlergrenzen (< paar Meter) *nicht* passieren.
Ich hätte heute Freitag ohnehin angerufen.
Vielen Dank !
Hallo TSK,
Internet-Engagement hat leider auch zur Folge, dass weniger freundliche „Statements“ auf der persönlichen Ebene kundgetan werden; die Ursache ist also auf der menschlichen Ebene zu suchen. Im konkreten Fall bedauere ich das ausserordentlich und ich bin bemüht, das wieder einzurenken, es braucht aber neben der Bereitschaft der Betroffenen auch den richtigen Zeitpunkt dafür.
Was ich sagen will: Es hat nichts mit der Quelle und deren Inhalt zu tun.
Freundliche Grüsse, Ralf
@Ralf
Danke für den Link; bitte bei Gelegenheit auch meinen Dank an den nicht genannten Finder zu übermitteln.
Grüsse, Holger
Ich habe Mark Jones, den Leiter des Geodäsie-Teams bei
CERN angerufen. Er schien relativ überrascht zu sein, dass
ich einen möglichen Offset gefunden haben, er hat es aber
nicht sofort abgetan.
Ein paar Leute hätten schon die Rechnung und die Daten
überprüft, aber keine Fehler gefunden.
Er hat zugesagt, dass er mir die notwendigen Daten zur
Berechnung der Targetposition heraussucht und sendet.
Dann hoffen wir mal das Beste.
Grüße
Hallo zusammen,
wieder einmal was neues:
Weakness of accelerator bounds on electron superluminality without a preferred frame (G.Amelino-Camelia et al.)
In der NZZ wurde dazu (ich hoffe, ich habe mit obigem arXiv die richtige Referenz erwischt) folgendes geschrieben:
Ich will nicht verschweigen, dass mir dieser Einwand zum Einwand irgendwie schwammig vorkommt, aber ich mag mich ja irren.
Freundliche Grüsse, Ralf
Hallo Ralf,
immerhin hat diese Idee einen prominenten Förderer (Lee Smolin):
Matt Strasslers Blog
s.a. Scilogs/Joachim Schulz
Ein Blick auf den neuen Preprint (Danke für den Link) sollte also lohnen. Bin aktuell nur anderweitig ziemlich eingespannt.
Gruß, Barney
Dabei geht es um die Diskussion, welche Lorentz-verletzende Modelle man als Testtheorie benutzt. Gewöhnlich werden Effektive Feldtheorien wie die Standardmodellerweiterung benutzt, welche Lorentzverletzungen im Sinne der Existenz eines bevorzugten Bezugssystemen bzw. Brechung des Relativitätsprinzips benutzt.
Hingegen gibt es auch Doubly special relativity (DSR), wo die SRT nur „deformiert“ wird, ohne dass ein bevorzugtes Bezugssystem eingeführt wird, d.h. das Relativitätsprinzip bleibt intakt. Darauf spielten Amelino-Camelia und Smolin an. (Dazu zählen übrigens auch ältere Modelle wie die Emissionstheorie oder Vollständige Äthermitführung, die allerdings schon lange aus anderen Gründen widerlegt sind.)
Sie meinen, dass die meisten negativen Anisotropieexperimente im wesentlichen nur das Relativitätsprinzip im allgemeinen – jedoch nur indirekt etwas mit der Lichtkonstanz zu tun haben, da diese nur ins Spiel kommt wenn man die Ergebnisse mit Blick auf ein bevorzugtes Bezugssystem auswertet (Vakuum-Tscherenkow usw.).
Allerdings ist DSR bei weitem noch nicht entwickelt genug, um mit den Effektiven Feldtheorien konkurrieren zu können, was die Präzision der Voraussagen betrifft…
Hinweis: Zum Verfassen von Kommentaren ist eine Bestätigung der e-Mail Adresse erforderlich.
Hallo Titus,
besten Dank für die Präzisierung.
Freundliche Grüsse, Ralf
Kurzes Update: Bis jetzt habe ich keine Angaben erhalten.
Ich möchte allerdings etwas anmerken:
Zur Webseite steht hier:
„RelativKritisch ist ein internationales Netzwerk auf der Achse der Vernunft für den deutschsprachigen Raum. RelativKritisch engagiert sich in der Auseinandersetzung mit irrationalen Weltentwürfen und Deutungssystemen. RelativKritisch ist eine Plattform unabhängiger Skeptiker, die sich der Verteidigung der Vernunft verpflichtet haben. RelativKritisch arbeitet auf den Grundsätzen guter wissenschaftlicher Praxis und hat sich zum Ziel gesetzt, das Internet als vertrauenswürdige Quelle erster Information zu bewahren.“
Ich habe mal versuchsweise in ein paar Artikel hineingeschaut.
Tut mir leid, aber der Eindruck, den die Artikel, die von der Redaktion (und nur von der hier rede ich erstmal, also nicht auf sich beziehen) hier geschrieben worden sind, erfüllen diesen Anspruch leider nicht.
Zu den Grundlagen wissenschaftlicher Praxis und rationalem Verständnis gehört es, das, *wenn* man sich mit einer These befaßt (man kann es natürlich auch lassen), diese mittels *gültiger*
Argumente zu widerlegen versucht.
„Ad hominem“-Argumente, in denen sämtliche Gegner ohne Ausnahme als völlige Spinner bezeichnet werden, die völligen Unsinn reden, sind *ungültige* Argumente. Sie werden auch dadurch nicht besser, wenn der Angesprochene diesen Tatbestand wirklich erfüllen würde oder eine Retourkutsche liefert oder man glaubt, auf der Seite der Wissenschaft zu sein.
Das Problem ist nämlich gerade, dass die teilweise doch anspruchsvolle Mathematik der SRT und ART es nicht ohne weiteres möglich macht, selbst nachzurechnen, wer denn recht
hat. Ich könnte es nicht ohne weiteres längeres Studium, d.h.
ich könnte nicht mit gutem Gewissen behaupten, dies oder jenes wäre Unsinn, wenn ich es nicht verstanden hätte. Ich kann natürlich zu Experten wie Matt Strassler etc. verlinken, aber dann kann ich doch nicht guten Gewissens ad hominems durch die Gegend schleudern, wenn ich die Substanz des Arguments gar nicht verstanden habe.
Grüße
Thorsten
Hallo Thorsten,
danke für deine Kritik, die wir uns gemäß unseres Leitbildes ausdrücklich wünschen:
Um deinem ausgesprochenen und berechtigen Anspruch gerecht werden zu können, wäre uns sehr geholfen, wenn du gleich mit gutem Vorbild voran gehst und konkret benennst, womit wir deine Kritik ausgelöst haben.
Vielen Dank,
Karl